Responsabilidade civil pelos danos ocasionados pelo uso de inteligência artificial: uma crítica à redação atual do Projeto de Lei n.º 2.338/2023 200 não apenas pela hipossuficiência – como já previsto no CDC – mas também quando as características técnicas da IA dificultarem a demonstração dos elementos clássicos da responsabilidade civil. A exigência de que a vítima comprove nexo de causalidade, falha do sistema ou conduta culposa do agente pode se tornar praticamente inviável em ambientes tecnológicos marcados por opacidade algorítmica e decisões não totalmente compreensíveis nem mesmo pelos seus desenvolvedores. Assim, a regra busca reequilibrar a relação processual e conferir efetividade ao direito à reparação. Por fim, os artigos 38 e 39 reforçam a continuidade da responsabilização mesmo em contextos experimentais ou quando houver legislação específica aplicável. A responsabilização dos participantes em ambientes de testagem, prevista no artigo 38, responde à necessidade de se evitar uma “zona de irresponsabilidade” sob a justificativa de inovação. Já o artigo 39 garante que normas de responsabilidade civil previstas em leis especiais – como as referentes à responsabilidade médica, ambiental ou decorrente de acidentes de consumo – permaneçam vigentes. Assim, o Marco Legal da IA busca dialogar com o sistema jurídico existente, lançando mão de princípios clássicos da responsabilidade civil adaptados à realidade tecnológica e à proteção dos direitos fundamentais. 5. CONSIDERAÇÕES FINAIS: CRÍTICAS À REDAÇÃO ATUAL DO PL 2338 OU POR QUE DIZER O ÓBVIO? Quando a Comissão de Juristas apresentou ao presidente do Senado Federal, Rodrigo Pacheco, o anteprojeto que deu origem ao Projeto de Lei n.º 2.338/2023, o capítulo relativo à responsabilidade civil evidenciava uma diretriz normativa clara: a de estruturar um regime jurídico de imputação de responsabilidade baseado na análise dos riscos inerentes ao funcionamento dos sistemas de inteligência artificial. A proposta original propunha uma classificação objetiva desses sistemas, especialmente nas categorias de “alto risco” e “risco excessivo”, cujas hipóteses de incidência estavam taxativamente previstas, embora se admitisse a possibilidade de reclassificação com base em avaliações técnicas realizadas pelos próprios agentes de IA — como desenvolvedores, fornecedores e operadores — ou pela autoridade reguladora competente.
RkJQdWJsaXNoZXIy MjEzNzYz