A armadilha ética do “impulso humano” (a)crítico na era da inteligência artificial: reflexões éticas e desafios no pós-humanismo 120 de dados, além da erosão da privacidade e da confiança (Borenstein; Howard, 2021). A vanguarda da IA é impulsionada pela ética da aceleração (Brusseau, 2023b, p. 1) e o elemento essencial dessa ética é a conversão de cada inovação em uma razão para um avanço ainda mais rápido. Naturalmente, a inovação bem-sucedida tende a se autossustentar, mas mesmo quando os resultados são prejudiciais, a aceleração continua devido à forma como as soluções são buscadas: por meio de mais inovação (Brusseau, 2023a, p. 1; Sustein, 2005, p. 5). Mellamphy (2021, p. 11) entende que respostas fortemente antropocêntricas para enquadrar a “IA ética” precisam ser mais desafiadas, e as propostas de estruturas deveriam explorar uma gama de perspectivas diferentes além do forte antropocentrismo, para repensar a ética da IA e as relações entre humanos e não-humanos de maneira geral. Como parte dessa prioridade, seria importante considerar perspectivas éticas de diferentes fontes culturais e sistemas narrativos. Ética e valores são sensíveis à cultura. Assim, quando plataformas de IA generativa de imagens são exploradas para produzir desinformação ou pornografia deepfake, a resposta não é limitar o poder ou as aplicações da IA (Yudkowsky, 2023), mas ampliá-los, catalisando pesquisas para a detecção automática de conteúdo nocivo, para que possam ser eliminados (Rana et al., 2022, p. 25497). Ou a resposta aceleracionista é desenvolver distorções matemáticas que envolvam as imagens originais, revestindo-as com perturbações que efetivamente impeçam usos abusivos (Salman et al., 2022). Em outras palavras, a inovação avança para resolver os danos causados pela própria inovação. O mesmo método se aplica à área de informações pessoais, onde aplicações de IA em finanças e saúde geraram ondas de violações de privacidade (Singh et al., 2018). A resposta da aceleração não é restringir o uso de dados com proibições, como o Regulamento Geral de Proteção de Dados (GDPR). Em vez disso, métodos algorítmicos alternativos são projetados para aumentar o controle efetivo dos usuários sobre o acesso às suas informações (Cummings et al., 2022, p. 1-21). Ou então, buscam-se avanços em privacidade diferencial, com a injeção de ruído em conjuntos de dados que obscurecem informações pessoais enquanto mantêm a utilidade dos dados (Zheng; Hu; Han, 2020, p. 1). De qualquer forma, a mesma força inovadora
RkJQdWJsaXNoZXIy MjEzNzYz