Controle de convencionalidade de direitos humanos: a contribuição das novas tecnologias

391 Wilson Engelmann Essa pirâmide das escalas de riscos (Figura 1) é bastante esclarecedora: no seu topo, se encontra o risco inaceitável, que extrapola os limites da regulação, e representa usos que violamos direitos e valores fundamentais da União Europeia. Se tem os sistemas de IA proibidos. Essa será uma análise qualitativa e principiológica muito significativa, buscando qualificar os sistemas de IA nessa categoria. O segundo nível da pirâmide está reservado para os sistemas de IA que possam gerar “risco elevado”, conforme já examinado, o qual exige determinada avaliação de conformidade, estruturada a partir dos princípios referidos e consagrados pela regulação europeia. O terceiro nível se relaciona ao “risco sistêmico”, o qual exige controles para viabilizar a prática do princípio da transparência, incluindo todos os pressupostos para o exercício do direito à informação por parte do usuário. Esse direito está consagrado no artigo 86o, do AI Act, e compreende o “direito a explicações sobre as decisões individuais” nos seguintes termos: 1. Qualquer pessoa afetada sujeita a uma decisão tomada pelo responsável por meio da implantação com base nos resultados de um sistema de IA de risco elevado enumerado no anexo III, com exceção dos sistemas enumerados no ponto 2 desse anexo, e que produza efeitos jurídicos ou analogamente afete num grau significativo essa pessoa, de forma que considere ter repercussões negativas na sua saúde, segurança ou direitos fundamentais, tem o direito de obter do responsável pela implantação explicações claras e pertinentes sobre o papel do sistema de IA no processo de tomada de decisão e sobre os principais elementos da decisão tomada. [...]. Se observa a importância do exercício da tomada de decisão que possa colocar em risco a saúde, a segurança e os direitos fundamentais da pessoa afetada. Já o último nível da pirâmide de risco se relaciona ao sistema de IA de “risco mínimo”, que não tem nenhuma regulação específica, mas deve observar as regras gerais que estão no AI Act, incluindo o comando que se encontra no artigo 79o, que estabelece “procedimento a nível nacional aplicável aos sistemas de IA que apresentam um risco”. Aqui se tem uma “cláusula geral do risco”, que reconhece: “entende-se por sistemas de IA que apresentam o risco como um ‘produto que apresenta um risco’

RkJQdWJsaXNoZXIy MjEzNzYz