Discriminação algorítmica, Inteligência artificial, Hipervigilância digital e tomada de decisão automatizada

285 Alana Gabriela Engelmann e Wilson Engelmann mento e experiência, os algoritmos podem evitar esses vieses. Além disso, eles podem identificar quais vieses estão causando erros humanos e até mesmo detectar novos vieses ainda não identificados. Alémdisso, tanto a criação demodelos computacionais quanto a programação inicial para resolver esse problema dependem de escolhas que, ainda que inconscientemente, carregam subjetividade. Ao desenvolver ummodelo preditivo de IA, é necessário primeiro decidir quais dados utilizar, já que alguns bancos de dados são mais confiáveis que outros. Também é preciso determinar quais dados do banco de dados devem ser incluídos ou excluídos ao avaliar os modelos preditivos. Deve-se selecionar quais algoritmos de aprendizado de máquina usar, pois existem diversos tipos de algoritmos, cada um com diferentes técnicas matemáticas para identificar quais parâmetros (recursos) são mais relevantes ou geram resultados preditivos mais precisos. Como esses algoritmos variam, mesmo utilizando o mesmo banco de dados, podem produzir resultados diferentes (Suriani, 2022, p. 149). Assim, resta claro que apenas a Transparência Algorítmica, a qual vemsendo tão abordada como o principal pilar do devido processo digital, não é suficiente para garantir que o processo de tomada de decisões proferidas por sistemas tecnológicos esteja em consonância coma Constituição Federal. Ainda, mostra-se de extrema importância a criação demecanismos hábeis para combater certos enviesamentos dos algoritmos, bem como é necessário que se encontre meios de que o ser humano tenha maior controle sobre o sistema. Com a autonomia e a capacidade de crescimento exponencial que os sistemas de inteligência artificial possuem, dificilmente o seu operador conseguirá controlar as interações do sistema, quais dados são coletados e quais bancos de dados que são utilizados, o que viola a neutralidade do sistema. Havendo violação da neutralidade, há uma clara violação ao princípio da isonomia e do juiz natural, ambos inerentes ao princípio Constitucional do devido processo legal. Por fim, as lições aprendidas, principalmente do caso COMPAS, que demonstrou um claro viés do algoritmo que proferiu decisões racistas, resta clara a importância de combinar transparência com outros mecanismos de controle e garantir que os profissionais do direito estejam adequadamente treinados para lidar com as novas tecnologias.

RkJQdWJsaXNoZXIy MjEzNzYz