Charles Glauber da Costa Pimentel 281 conter vieses inerentes, refletindo e amplificando desigualdades sociais e preconceitos existentes. A vigilância algorítmica também opera como um mecanismo de normalização, no qual os algoritmos, ao classificarem e hierarquizarem indivíduos e comportamentos, estabelecem padrões de conduta considerados aceitáveis. Essa arquitetura digital de controle não apenas observa, mas define o que é desvio e o que é normal, orientando a atuação estatal com base em padrões estatísticos e não mais em evidências individualizadas. Esse processo de normalização automatizada tende a reforçar estigmas e seletividades históricas. O aprofundamento do problema reside na análise dos riscos sociais significativos acarretados pelo poder preditivo dos algoritmos, notadamente a discriminação algorítmica. O artigo explora as formas pelas quais essa discriminação pode ocorrer: i) viés nos dados de treinamento (se os dados usados para treinar o algoritmo não são representativos ou contêm preconceitos históricos, o algoritmo aprenderá e reproduzirá esses preconceitos, como menor precisão para certas etnias ou gêneros em reconhecimento facial); ii) viés no próprio algoritmo (mesmo com dados neutros, o design ou os parâmetros podem introduzir preconceitos); e iii) impacto desproporcional em grupos já marginalizados (ex: policiamento excessivo em áreas de baixa renda, aumentando as chances de abordagens e prisões para seus moradores, independentemente de sua real propensão a cometer crimes). Ademais, é imprescindível destacar o problema da opacidade algorítmica. A falta de transparência na forma como os algoritmos operam e chegam a conclusões dificulta a responsabilização e inviabiliza o pleno exercício do contraditório e da ampla defesa, o que representa afronta direta a garantias fundamentais do Estado Democrático de Direito. Quando decisões com impacto direto sobre direitos individuais são tomadas de forma automatizada e indevassável, compromete-se a legitimidade do próprio processo decisório. A aplicação das técnicas de pesquisa neste capítulo envolve a revisão bibliográfica aprofundada dos autores mencionados, que constituem o marco teórico para a análise crítica da vigilância digital. A solução implícita nesta seção é a necessidade de uma análise cuidadosa dos riscos e implicações sociais da vigilância algorítmica,
RkJQdWJsaXNoZXIy MjEzNzYz