Anais do XXI Seminário Internacional Nanotecnologias, Sociedade e Meio Ambiente desafios jurídicos éticos e sociais para a “grande transição sustentável” (XXI SEMINANOSOMA) 424 O PERIGO DAS ALUCINAÇÕES NO USO DE INTELIGÊNCIA ARTIFICIAL NO DIREITO Caroline Andréia Klein1 Introdução: As chamadas alucinações no uso de inteligência artificial consistem no fornecimento de informações que aparentam ser reais, mas que não possuem embasamento científico, bibliográfico, legislativo ou jurisprudencial (MAGESH et al., 2024; SALVAGNO et al., 2023). Ferramentas de processamento de linguagem geram textos fluentes e coerentes, porém, muitas vezes, sem suporte de dados confiáveis, o que pode ocorrer devido a limitações ou ruídos nos dados de treina- mento (FILIPPOVA, 2020). O problema decorrente dessas alucinações é o risco de uso indevido, uma vez que a qualidade do texto gerado pode fazer com que as informações falsas sejam confundidas com a verdade, gerando desinformação (BROWN, 2020), a exemplo do ad- vogado Steven Schwartz, que em 2023 utilizou precedentes falsos gerados pela inteligência artificial ChatGPT em uma corte dos Estados Unidos, acreditando na veracidade das informações fornecidas (FOR- BES, 2023). Detectar essas alucinações é desafiador, principalmente porque os dados utilizados no treinamento do modelo de linguagem nem sempre são acessíveis (MANAKUL et al., 2023). Estudos indicam que o GPT-3 tem certa capacidade na avaliação de consistência, onde, por meio de comandos internos, o modelo é capaz de avaliar suas pró- prias sentenças e gerar novas perguntas a partir da resposta inicial, identificando possíveis inconsistências (MANAKUL et al., 2023). Considerando os riscos, é imprescindível que haja a intervenção humana na revisão dos resultados gerados por ferramentas de inteligência ar- tificial (BRANDÃO, 2024; YAMANE, 2020; MAGESH et al., 2024; MORAIS, 2022). Isso garante que elas sirvam como apoio na tomada de decisão e não como agentes decisores (HATEM et al., 2023). Método: A pesquisa foi realizada por meio de revisão bibliográfica e análise de estudo de caso. Foramutilizados artigos científicos e notícia sobre caso notório. O objetivo geral foi compreender os perigos envolvendo o uso de ferramentas de inteligência artificial na advocacia. Os objetivos específicos consistiram na compreensão do que são alucinações, como elas ocorrem e impactam a prática jurídica e como é possível identi- ficá-las. Resultado: Os resultados demonstraram que as alucinações da inteligência artificial representam um risco significativo para o uso dessas ferramentas no direito. No caso específico do advogado Steven 1 Universidade do Vale do Rio dos Sinos, caroline_klein@outlook.com
RkJQdWJsaXNoZXIy MjEzNzYz