Os sistemas de IA: entre os riscos e as possibilidades do princípio da precaução 392 na acepção do artigo 3o, ponto 19, do Regulamento (UE) 2019/1020 (UE, 2019), na medida em que apresentem riscos para a saúde ou a segurança ou para os direitos fundamentais das pessoas”. Ampliando-se a redação do artigo 79o, se deverá incorporar ao AI Act a redação do citado artigo 3o, do Regulamento 2019/1020, onde se podem encontrar novas definições sobre o “risco”, destacando-se o ponto 18, que destaca uma definição de risco como “[...] a combinação entre a probabilidade de ocorrência de um perigo que provoque danos e o grau de gravidade dos danos; [...]”. Esse conceito faz o cruzamento entre a “probabilidade” e a “magnitude” do dano que poderá ser gerado pelo sistema de IA. Portanto, entre esses dois pontos se deverá nortear a tomada de decisão, abrindo-se um campo fértil para o exercício dos princípios reconhecidos pela UE, incluindo o “princípio da precaução”, como se verá no próximo capítulo. O artigo 79o (AI Act), faz referência expressa ao ponto 19, do artigo 3o (Regulamento 2019/1020), que estabelece: “produto que apresenta um risco”, um produto suscetível de afetar negativamente a saúde e segurança das pessoas em geral, a saúde e segurança no local de trabalho, a proteção dos consumidores, o ambiente, a segurança pública e outros interesses públicos protegidos pela legislação de harmonização da União aplicável, em medida superior à considerada razoável e aceitável tendo em conta o fim a que se destina ou as condições normais ou razoavelmente previsíveis em que decorrerá a sua utilização, designadamente em termos de duração e, se for caso disso, os requisitos de instalação, funcionamento e manutenção que se lhe aplicam; [...]. A referida “cláusula geral do risco” é substancializada por essas características, contendo categorias vagas, a fim de albergar a maior gama de situações que possam ser geradas pelos sistemas de IA. O AI Act também reconhece a possibilidade da criação de códigos de conduta de aplicação voluntária com requisitos específicos (artigo 95o), especialmente em sistemas de IA que não sejam de risco elevado. Esse artigo estabelece os elementos estruturantes que poderão integrar um “código de conduta voluntária”, ou “código de conformidade regulatória”:
RkJQdWJsaXNoZXIy MjEzNzYz