Inteligência artificial e algoritmos

197 Caitlin Mulholland do programador seria objetivamente responsável pelos danos causados pela IA autônoma, podendo, se quisesse, agir repressivamente contra o programador, provada a sua culpa na ocasião dos danos, conforme explicitado no artigo 932, III, 933 e 934, e seu parágrafo único, do Código Civil. Contudo, a ação regressiva seria, possivelmente, impossibilitada pela incapacidade de prova da culpa do programador, considerando as premissas apresentadas acima. ii) Responsabilidade civil objetiva da sociedade que utiliza, se beneficia e aufere lucros através da exploração da IA, objetivamente, por risco criado. Neste sentido, uma interpretação possível do artigo 927, parágrafo único, do Código Civil, é de que quando o legislador se refere a atividade que, pela sua natureza, implica risco aos direitos de outrem, poder-se-ia interpretar extensivamente o conceito de atividade para qualificar os sistemas de IA como bens perigosos – por gerarem, potencialmente, danos qualitativamente graves e quantitativamente numerosos -, o que justificaria a responsabilidade por risco. Nesse sentido, e de acordo com Maria Celina Bodin de Moraes, “a causa da imputação da responsabilidade objetiva, fundada na solidariedade social, é tão somente o grau de risco (rectius, perigo)”.20 De outro lado, poderia ser considerada a aplicação do Código de Defesa do Consumidor, sob os mesmos fundamentos apresentados acima, aplicando-se a responsabilidade civil ao fornecedor – no caso, aquele que insere o sistema de IA no mercado de consumo – pelo fato do produto ou do serviço, amparada na presunção da existência de um defeito que ocasionou o dano, ainda que este defeito fosse desconhecido no momento em que o sistema de IA iniciou seu processo de desenvolvimento e auto-aprendizagem. 20 MORAES, Maria Celina Bodin de. Risco, solidariedade e responsabilidade objetiva. Revista dos Tribunais, São Paulo, v. 95, n. 854, p. 11-37, dez. 2006. p. 34.

RkJQdWJsaXNoZXIy MjEzNzYz