Anais do XXI Seminário Internacional Nanotecnologias, Sociedade e Meio Ambiente desafios jurídicos éticos e sociais para a “grande transição sustentável” (XXI SEMINANOSOMA) 74 implicaria que possuíssem algo similar à personalidade jurídica e à ca- pacidade jurídica, ainda que limitadas, por exemplo, às funções que lhes fossem atribuídas14. De todo o modo, à luz do desenvolvimento tecnológico actual, ainda não se coloca esta possibilidade15, pelo que a responsabilidade por danos causados por estes veículos terá, necessariamente, de recair sobre outras entidades. Em face da falta de legislação especial sobre este tipo de danos, será necessário tentar encontrar, dentro do quadro vigente, alternativas que se lhes possam aplicar. A este respeito, a Comissão Europeia encontrava-se preocu- pada com a possibilidade de cada Estado-Membro poder criar a sua própria legislação, pondo em causa a necessária homogeneidade do corpo legislativo europeu e a estabilidade do Mercado Interno. No Li- vro Branco sobre Inteligência Artificial, a Comissão Europeia explicava a importância de se avançar no sentido de criar legislação unitária, aplicável em todos os Estados Membros, de forma a garantir a confian- ça dos agentes económicos e um nível de segurança idêntico a todos os cidadãos europeus. Para além de entender que era urgente definir quais as bases e princípios éticos que deverão balizar a IA, estabele- cia-se como ponto assente que o funcionamento da IA deve submeter- -se sempre, em qualquer Estado Membro, ao respeito pelos direitos fundamentais dos cidadãos, nomeadamente, o respeito pela dignidade da pessoa humana e a protecção da sua privacidade16. Nesse sentido, foi aprovado o Regulamento Inteligência Artificial (RIA)17, que, infeliz14 Entendendo que “[a] analogia entre a suposta personalidade das pessoas eletrónicas e das pessoas coletivas falha”, v. Mafalda Miranda Barbosa, «O futuro da responsabilidade civil desafiada pela inteligência artificial…», op. cit., pp. 294-295. A autora, entre outros argumentos, explica que a personalidade jurídica foi atribuída às pessoas colectivas para que determinados interesses humanos colectivos ou comuns pudessem ser prosseguidos (ou pudessem sê-lo de modo mais eficiente), o que não se verificaria aqui; acrescenta que, ainda que se considerasse que o interesse humano em causa, neste caso, seria a não responsabi- lização do proprietário do robot, como o robot não possui património, sempre teria de ser a pessoa física por trás dele a suportar as indemnizações devidas por danos que o robot viesse a provocar. 15 Considerando, por isso, que “[n]uma primeira fase de desenvolvimento da inteligência artifi- cial, os robôs carecem de imputabilidade (…) [pois] as reações que condicionam os seus comportamentos são programadas, faltando (…) o entendimento e uma vontade de ação próprios”, Henrique Sousa Antunes, «Inteligência artificial e responsabilidade civil», op. cit., p. 26. 16 European Comission, White Paper on Artificial Intelligence – A European approach to excellence and trust, p. 2 (disponível emhttps://ec.europa.eu/info/publications/white-paper-arti- ficial-intelligence-european-approach-excellence-and-trust_en, consultado em 01/10/2020). 17 Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho de 13 de Junho de 2024 que cria Regras Harmonizadas em Matéria de Inteligência Artificial e que altera os Regulamentos (CE) n.º 300/2008, (UE) n.º 167/2013, (UE) n.º 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e as Diretivas 2014/90/UE, (UE) 2016/797 e (UE)
RkJQdWJsaXNoZXIy MjEzNzYz