Inteligência artificial e algoritmos

117 Mateus de Oliveira Fornasier, Fernanda Viero da Silva e Marco Antonio Compassi Brun Ao buscar soluções universais para problemas globais, a aplicação de IA pode inadvertidamente reforçar estruturas de poder e vigilância. A homogeneização de valores éticos e culturais em sistemas algorítmicos — frequentemente desenvolvidos em contextos específicos e reproduzidos globalmente — cria um paradoxo: o que é projetado para emancipar pode, na prática, restringir. Assim, o “impulso humanitário” pode ser cooptado por interesses econômicos ou políticos, consolidando novas formas de dominação e vigilância em uma sociedade complexa. Aliás, o avanço das tecnologias voltadas à vigilância tem consolidado a presença constante do chamado capitalismo de vigilância. Esse fenômeno, característico da contemporaneidade, carrega consigo o “pecado original” da acumulação primitiva do capitalismo (Zuboff, 2019, p. 1). A vigilância algorítmica na verdade, é um exemplo emblemático dessa dinâmica. A coleta massiva de dados e a aplicação de IA para monitorar e prever comportamentos sociais são frequentemente justificadas pelo desejo de proteger e beneficiar a sociedade. No entanto, essas práticas frequentemente resultam em desigualdades ainda mais profundas, à medida que grupos marginalizados são mais suscetíveis à exploração e exclusão digital. A consideração ética, portanto, deve incluir não apenas o que é possível fazer com a IA, mas tambémquemdefine esses limites e quais interesses são priorizados. A busca incessante pelo “toque humano” (Giang, 2020) nas máquinas é o que na realidade desde a sua concepção é notoriamente capaz de influenciar e facilitar as inferências diretas de ideologias pré-existentes de seus desenvolvedores a partir também de narrativas identitárias totalizantes. Essa discussão é essencial para compreender a tecnologia de maneira ampla e é crucial reconhecer que a tecnologia não funciona de forma isolada. Ela é moldada por dados e critérios estabelecidos por humanos, tornando-se, assim, um reflexo das estruturas sociais. As críticas à IA frequentemente abordam sua opacidade, a dificuldade de compreender seus processos internos e a impossibilidade de auditar ou reverter suas decisões em muitos cenários. No entanto, essa falta de transparência também revela uma limitação humana: a incapacidade de controlar plenamente os resultados das máquinas que criamos e, mais ainda, de resolver as desigualdades estruturais que esses algoritmos apenas reproduzem.

RkJQdWJsaXNoZXIy MjEzNzYz