Os sistemas de IA: entre os riscos e as possibilidades do princípio da precaução 388 IA. Ao identificar as medidas de gestão dos riscos mais adequadas, o prestador deverá documentar e explicar as escolhas feitas e, se for caso disso, envolver peritos e partes interessadas externas (UE, 2024). A gestão dos riscos se encontra alicerçada na necessária proteção de três elementos estruturantes: “saúde, a segurança e os direitos fundamentais”. Para protegê-los, ao longo de todo o ciclo de vida5 do sistema de IA, deverão ser tomadas decisões, fundamentadas na melhor técnica conhecida no momento. Vale dizer, será exigida uma constante pesquisa e ampliação do conhecimento, na busca de crescentes níveis de mitigação dos riscos. No documento regulatório se destaca a chamada categoria de “risco elevado”, normatizada a partir do artigo 6o; incluindo a necessidade de cumprimento de determinados requisitos (art. 8o); o Sistema de Gestão de Riscos (art. 9o) e a supervisão humana (art. 14o), todos do AI Act. Esses sistemas que poderão gerar “risco elevado” ocupam boa parte do documento regulatório. No artigo 6o, o regulamento caracteriza o sistema de IA de risco elevado: 1. Independentemente de a colocação no mercado ou a colocação em serviço de um sistema de IA ser feita separadamente dos produtos a que se referem as alíneas a) e b), esse sistema de IA é considerado de risco elevado sempre que se estejam preenchidas ambas as seguintes condições: a. O sistema de IA destina-se a ser utilizado como um componente de segurança de um produto ou o sistema de IA é, ele próprio, um produto abrangido pelos atos enumerados na lista da legislação de harmonização da União constante do anexo I; b. O produto cujo componente de segurança nos termos da alínea a) é o sistema de IA, ou o próprio sistema de IA enquanto produto, tem de ser sujeito a uma avaliação da conformidade por terceiros com vista à sua colocação no mercado ou colocação em serviço nos 5 Ciclo de vida: “[...] série de fases desde a concepção, planejamento, desenvolvimento, treinamento, testagem, validação e monitoramento para eventuais modificações e adaptações de um sistema de inteligência artificial, cuja descontinuidade pode ocorrer em quais das etapas referidas; [...]” (UE, 2024, “Considerandos” n. 65, 69, 73 e 110).
RkJQdWJsaXNoZXIy MjEzNzYz