Discriminação algorítmica, Inteligência artificial, Hipervigilância digital e tomada de decisão automatizada

A precaução emanada de recomendações internacionais para edificação de estratégias responsáveis no desenvolvimento e implementação de sistemas de inteligência artificial 310 Diante disso, chama-se o Princípio da Precaução como instrumento para cautela das IAs e percebe-se que diferentemente da aplicação da precaução quanto as outras novas tecnologias, pois em sua maioria a avaliação de riscos é voltada para os resultados em pesquisas científicas, nas ações das IAs a precaução circunda mais em medidas éticas, protetivas aos Direitos Humanos (vida, liberdade, honra, privacidade, emprego...). Concluindo-se, assim, que apesar da IA permitir soluções inovadoras ela também traz consigo novos desafios, riscos e resultados incertos, ou seja, abstralidades ainda não desenhadas por completo pelas orientações éticas. Assim, na medida do seu desenvolvimento ela deve vir balizada pela ética para respeitas os Direitos Humanos em sua completude para as presentes e futuras gerações. Para tanto, compreende-se que são pertinentes as recomendações desenhadas pelas organizações internacionais como a Organização para Cooperação e Desenvolvimento Econômico em seu do Conselho de Inteligência Artificial visando a precaução diante dos riscos da Inteligência Artificial. REFERÊNCIAS ANTISERI, Dario; REALE, Giovanni. Filosofia: Idade Moderna. Porto Alegre: Paulus, 2018. BECK, Ulrich. A metamorfose do mundo: novos conceitos para uma nova realidade. Rio de Janeiro: Zahar, 2018. BERENTE, Nicholas et al. A. Managing Artificial Intelligence. MIS Quarterly, v. 45, n. 3, p. 1433-1450, 2021. BERWIG, Juliane Altmann; ENGELMANN, Wilson. O princípio da precaução: diretrizes para sua aplicação empírica. Revista Pensar, v. 28, n.1, p.1-14, 2023. DENNIS, Claire; KIRNBERGER, Johannes Leon; SHANKAR, Var. We need to use AI to fight climate change. Paris: OCDE, 30 maio 2023. Disponível em: https://oecd.ai/en/wonk/fight-climate- change. Acesso em: 12 de jun. de 2024.

RkJQdWJsaXNoZXIy MjEzNzYz