Rede de Saberes, Edição 2025

424 XXXII MOSTRA UNISINOS DE INICIAÇÃO CIENTÍFICA E TECNOLÓGICA De 29/09/2025 a 03/10/2025 Unisinos São Leopoldo e Porto Alegre Ciências Humanas - Programa de Pós-Graduação em Filosofia Autor(a): Eric Pereira Dorneles Coautor(es): Modalidade de Bolsa: PIBIC Orientador(a): Denis Coitinho POR QUE AS INTELIGÊNCIAS ARTIFICIAIS NÃO APRENDEM ÉTICA? SOBRE MODELOS DE APRENDIZAGEM BOTTOM-UP E A FALTA DE COGNIÇÃO CORPORIFICADA O contexto ao qual este trabalho se insere é o do crescente avanço das inteligências artificiais, principalmente da utilização destas IAs com certo nível de agência para tomada de decisões, como os carros autônomos. Em casos como este se faz necessária a decisão de como estas IAs devem se comportar, e com isso a pergunta: como faremos que elas aprendem ética? Pretendo com esta pesquisa, através da síntese de argumentos e posições descritas nos textos lidos durante a pesquisa, explicitar o problema da defesa de um argumento sobre o aprendizado de inteligências artificiais a partir de um modelo bottom-up, onde a IA aprenderia juízos morais e inferiria princípios a partir de um modelo iterativo de aprendizado (deep learning), usando experiências práticas e se moldando com o passar do tempo. Também apresentar uma crítica deste tipo de abordagem pelos argumentos de que a IA não teria estados cognitivos e emocionais suficientes para desenvolver estes juízos, justamente por não possuir um corpo físico que garanta estes estados cognitivos (perspectiva enativista), nem o poderiam fazer somente através da linguagem como propõe Railton. Para além desta crítica, por último me proponho a defender uma perspectiva top-down de definição de princípios como uma alternativa viável, dos quais as IAs deveriam respeitar para posteriormente desenvolver juízos morais. A definição destes princípios se daria através do método de equilíbrio reflexivo amplo primeiramente apresentado por Rawls. Já primeiras intuições que fariam o contrapeso a estes princípios seriam tiradas de experimentos como a Moral Machine e conjuntos de normas de agências de regulação de IA. Palavras-chave: inteligência artificial; enativismo; ética; equilíbrio reflexivo, princípios.

RkJQdWJsaXNoZXIy MjEzNzYz