Empresa, sociedade e tecnologia: sob a ótica sistêmica e econômica

Charles Glauber da Costa Pimentel 285 sistema SMART SAMPA, com base em seu relatório de transparência, revelou inconsistências operacionais significativas (como a falta de baixa de mandados no BNMP); inconsistências cadastrais e, mais criticamente, a ocorrência de 23 casos de condução indevida à delegacia por erro de reconhecimento facial (falsos positivos). Esses falsos positivos, inerentes à natureza probabilística da predição algorítmica, têm um custo humano elevado, violando direitos fundamentais como a liberdade de locomoção, a dignidade da pessoa humana e a presunção de inocência. Argumentou-se que esses casos de condução indevida, especialmente se houver um viés algorítmico que afete desproporcionalmente determinados grupos, configuram um tratamento de dados com fins discriminatórios abusivos, em clara violação ao art. 6º, IX da LGPD. A responsabilidade do Poder Público, como controlador dos dados, é objetiva e exige a reparação dos danos e a adoção de medidas corretivas. A opacidade dos algoritmos e a falta de dados demográficos sobre os falsos positivos dificultam a auditoria e a responsabilização, mas não eximem o Estado de sua obrigação de garantir a não discriminação. Por fim, este estudo contribui para o debate sobre o uso de tecnologias de reconhecimento facial na segurança pública sob diversas perspectivas: 1) Jurídica: aprofunda a interpretação do princípio da não discriminação da LGPD (art. 6º, IX) no contexto da vigilância algorítmica, demonstrando como os falsos positivos podem configurar discriminação abusiva, mesmo sem intenção discriminatória. Reforça a responsabilidade do Poder Público e a necessidade de fiscalização da ANPD; 2) Social: evidencia o custo humano e os impactos nos direitos fundamentais de cidadãos inocentes submetidos a abordagens e conduções indevidas por falhas tecnológicas, chamando atenção para a necessidade de um olhar mais crítico sobre a promessa de segurança oferecida por essas tecnologias; 3) Tecnológica: sublinha a importância da transparência e da auditoria algorítmica para identificar e mitigar vieses, promovendo o desenvolvimento e uso de algoritmos mais justos e equitativos; 4) Política pública: oferece subsídios para a formulação de políticas públicas mais responsáveis e éticas no uso da inteligência artificial na segurança, sugerindo medidas como a moratória, regulamentação específica e participação social.

RkJQdWJsaXNoZXIy MjEzNzYz