189 Gabriel Cemin Petry, João Sérgio dos Santos Soares Pereira e Karin Regina Rick Rosa conteúdo, publicidade comportamental direcionada, persuasão de eleitores, risco de evasão de funcionários e até mesmo a detecção de fraudes (Siegel, 2016, p. 253-256). Contudo, conforme adverte Eubanks (2018, p.12) na obra “Automating Inequality: How high-tech tools profile, police, and punish the poor”, nem todas as pessoas que utilizam/navegam pelo ecossistema digital terão a mesma experiência no seu uso, notadamente quando dados são coletados excessivamente para reforçar estigmas e marginalização de grupos sociais (higher levels of data collection reinforce their marginality when it is used to target them for suspicion and extra scrutiny). Sobre a aplicação da IA na esfera penal, o Parlamento Europeu, por meio da Resolução de 6 de outubro de 2021 (IA no direito penal e a sua utilização pelas autoridades policiais e judiciárias em casos penais), reconheceu o contributo positivo de aplicações de IA para autoridade policial e o Poder Judiciário, contudo, também apontou para questões que são de extrema pertinência sobre o uso da IA e os dataset utilizados no sistema (item 8 e 15): 8. Salienta o potencial de parcialidade e discriminação resultante da utilização de aplicações de IA, tais como a aprendizagem automática, incluindo dos algoritmos em que tais aplicações se baseiam; observa que os preconceitos podem ser inerentes a conjuntos de dados de base, especialmente quando são utilizados dados históricos, inseridos pelos criadores dos algoritmos ou gerados quando os sistemas são aplicados em situações reais; destaca que os resultados das aplicações de IA são necessariamente influenciados pela qualidade dos dados utilizados e que esses preconceitos inerentes tendem a aumentar gradualmente, a perpetuar e a ampliar a discriminação existente, em particular para pessoas pertencentes a certos grupos étnicos ou certas comunidades racializadas. 15. Assinala, contudo, que se os humanos se basearem exclusivamente nos dados, perfis e recomendações gerados pelas máquinas, não serão capazes de levar a cabo uma avaliação independente; salienta as consequências potencialmente graves, mormente no domínio da aplicação da lei e da justiça, quando as pessoas confiam excessivamente na natureza aparentemente objetiva e científica dos instrumentos de IA e não consideram a possibilidade de os seus resultados serem incorretos, incompletos, irrelevantes ou discriminatórios; destaca que cumpre evitar uma confiança excessiva nos resultados fornecidos pelos sistemas de IA e salienta a necessi-
RkJQdWJsaXNoZXIy MjEzNzYz