Inteligência Artificial na justiça criminal: entre a inovação tecnológica e os desafios éticos e jurídicos na proteção dos Direitos Humanos 70 procurada já se encontrava presa há quatro anos, indicando que o banco de dados não estava devidamente atualizado. Dessa forma, é importante considerar que as tecnologias de reconhecimento facial estão predestinadas a cometer erros, tendo em vista que estão no campo das inovações em processo de aperfeiçoamento. Porém, esta tecnologia difere-se das demais, pois seus erros podem reproduzir constrangimentos, prisões abusivas e ultraje aos direitos humanos (Nunes, 2019, p.68). Um outro exemplo notável de vieses algorítmicos, é o software “COMPAS” (Correctional Offender Management Profiling for Alternative Sanctions), desenvolvido pela Northpointe INC, uma empresa privada, que opera com a Corte Estadual nos casos criminais em Wisconsin, nos Estados Unidos, determinando a pena e o modo de sua execução, e como consequência, auxilia os juízes na elaboração da sentença. O programa, que temseu algoritmo patenteado, executa a coleta e a análise de dados históricos de uma pessoa para prever a probabilidade de reincidência, orientando de qual modo irá ocorrer a supervisão do cumprimento da pena. Porém, um problema enfrentado pela adoção de julgamentos por meio de algoritmos, como no caso do “COMPAS”, seria a falta de transparência no seu código, que reside na propriedade privada do código do software (Salzano, 2020, p. 5-10). Em uma pesquisa, foram examinados mais de 10.000 réus criminais no Condado de Broward, Flórida, contrastando suas taxas previstas de reincidência do sistema COMPAS com as ocorrências reais ao longo de um intervalo de dois anos. A pesquisa revelou que réus negros tinham uma probabilidade significativamente maior do que réus brancos de serem julgados incorretamente como tendo um risco maior de reincidência, enquanto réus brancos eram mais propensos do que os negros a serem erroneamente classificados como de baixo risco. Ao comparar as taxas de reincidência, a pontuação acertou a previsão de reincidência de um infrator em 61% das ocasiões, porém foi precisa em apenas 20% das previsões de reincidência violenta (Larson, 2016). Embora exemplos citados anteriormente que apontam benefícios para a segurança pública e investigação criminal, as tecnologias de reconhecimento facial se deparam comuma obscuridade em sua aplicação no Brasil: o racismo. Casos de pessoas inocentes sendo erroneamente detidas por crimes que não cometeram são lamen-
RkJQdWJsaXNoZXIy MjEzNzYz