Inteligência artificial e algoritmos

A armadilha ética do “impulso humano” (a)crítico na era da inteligência artificial: reflexões éticas e desafios no pós-humanismo 114 imparcial constitui uma falácia, um mito da neutralidade algorítmica. O homem não é neutro, tampouco o algoritmo. Cenário ideal para reprodução de narrativas identitárias. Além disso, há um nível significativo de opacidade nesse processo: muitas empresas que utilizam tecnologias baseadas em IA desconhecem quem foram os responsáveis pelo seu desenvolvimento. Essa falta de transparência é ainda mais problemática quando se considera a homogeneidade do perfil dos programadores globalmente. Estudos indicam que aproximadamente 92% dos programadores são homens brancos localizados no Norte Global, o que evidencia um desequilíbrio estrutural e reforça a discussão sobre colonialismo digital (Pérez, 2019). A concentração da produção tecnológica em um grupo social específico influencia diretamente a maneira como os algoritmos operam, perpetuando desigualdades e hierarquias já existentes. Conforme estudos já documentam, os algoritmos não apenas reproduzem, mas também podem intensificar formas de violência estrutural, incluindo violência de gênero e racial, ao serem incorporados a processos decisórios que afetam diretamente a vida das pessoas. Operando em setores como a política, a economia e a concessão de crédito, esses sistemas tomam decisões que muitas vezes agravam desigualdades preexistentes sem que os indivíduos sequer tenham consciência disso. A opacidade dos algoritmos (Bathaee, 2018, p. 901) e a falta de transparência nos processos de tomada de decisão geram um cenário no qual o ser humano frequentemente desconhece que está sendo impactado por uma decisão algorítmica, tampouco compreende os critérios que a orientaram. Essa incompreensão se agrava devido à dificuldade técnica de realizar um rastreamento reverso do processo decisório, sobretudo diante do aperfeiçoamento recursivo das máquinas (Bostrom, 2014, p. 47) e do avanço das abordagens que defendem a singularidade algorítmica (Ganascia, 2017, p. 114) como o futuro ou ideal da IA. No campo acadêmico, há um consenso de que os sistemas de IA devem atender a certos níveis de explicabilidade (Fornasier, 2021, p. 57), sem necessariamente abrir integralmente seus códigos e processos, em parte devido à necessidade de proteção da propriedade intelectual e das patentes, um princípio também defendido pela Organização Mundial do Comércio (OMC). Entretanto, a impossibi-

RkJQdWJsaXNoZXIy MjEzNzYz