Discriminação algorítmica, Inteligência artificial, Hipervigilância digital e tomada de decisão automatizada

Reconhecimento facial e política criminal: entre a segurança pública e a proteção aos direitos fundamentais 454 que realizam a vigilância e aqueles que estão sendo observados (Richards, 2012, p. 1934). Em artigo estruturado por Pablo Nunes, o autor destaca que a questão central dessas tecnologias de vigilância são os dados que as alimentam (Nunes, 2021). Segundo o autor, há muito tempo o trabalho das policiais brasileiras e de todo sistema de política criminal é estruturado pelo racismo, de modo que: Os negros são os mais abordados pelas polícias sendo as favelas e periferias as únicas partes das cidades brasileiras onde a polícia entra com viaturas blindadas e helicópteros, sentindo-se à vontade para atirar. Os negros são a parcela majoritária da população carcerária, são eles também os que menos recebem favorecimento jurídico durante a audiência de custódia, são os que mais morrem por homicídios, além de serem a maioria das vítimas fatais das forças de segurança. São esses os dados produzidos por décadas de racismo e violência contra a população negra que serão utilizados nos modelos de predição de crimes. O que a máquina vai aprender com esse histórico? (Nunes, 2021). A discussão sobre racismo e tecnologia pode ser vista, inclusive, em documentários como Coded Bias, que mostra como pesquisadores das Universidades do Instituto de Tecnologia de Massachussets e Columbia identificaram a perpetuação do racismo com nova roupagem: a tecnologia. O referido documentário explora como algoritmos e inteligência artificial podem perpetuar preconceitos e discriminações, afetando desproporcionalmente grupos marginalizados da sociedade. Em outras palavras, as máquinas aprendem o racismo e o reproduzem (Kantayya, 2020). Em um país que possui histórico de prisões equivocadas em que 83% dos presos injustamente por reconhecimento fotográfico são negros, que contém a terceira maior população carcerária de todo o mundo e é caracterizado pelo genocídio da população negra como lógica estruturante do estado, torna-se crucial, conforme enfatizado por Paulo Victor Melo e Paulo Serra, que a implementação de tecnologias digitais, sobretudo o reconhecimento facial, sejam pautados a partir de considerações acerca de todas as possíveis implicações éticas, sociais, políticas e culturais, de modo que, na busca pelo combate à criminalidade e por ampliação da segurança, não

RkJQdWJsaXNoZXIy MjEzNzYz