393 Wilson Engelmann a) elementos aplicáveis das Orientações Éticas da União para uma IA de confiança; b) avaliar e minimizar o impacto dos sistemas de IA na sustentabilidade ambiental, nomeadamente no que diz respeito à programação e às técnicas de concessão, treino e utilização da IA eficientes do ponto de vista energético; c) promover a literácia no domínio da IA, em especial das pessoas que lidam com o desenvolvimento, o funcionamento e a utilização da IA; d) facilitar uma concessão inclusiva e diversificada dos sistemas de IA, nomeadamente através da constituição de equipes de desenvolvimento inclusivas e diversificadas e da promoção da participação das partes interessadas nesse processo; e) avaliar e prevenir as repercussões negativas dos sistemas de IA nas pessoas vulneráveis ou nos grupos de pessoas vulneráveis, inclusive no que diz respeito à acessibilidade para pessoas com deficiências, bem como na igualdade de gênero. A gestão dos riscos, em qualquer uma das suas categorias estabelecidas na pirâmide acima apresentada, deverá evidenciar a conformidade a esses elementos de observação voluntária. Tais componentes estruturantes demonstram a possibilidade de se desenvolver modelos de “autorregulação regulada”, mesclando-se iniciativas voluntárias privadas com comandos estatais obrigatórios; se conjuga um efetivo compartilhamento do poder regulamentar estatal, fortalecendo a pesquisa, o desenvolvimento e a inovação de sistemas de IA. Além das definições trazidas pelo AI Act, se pretende analisar a categoria de “risco”, a partir das contribuições de Niklas Luhmann, que relaciona essa categoria à tomada de decisão, com perspectiva para o futuro: “[...] o dano futuro se apresenta como risco. Esses danos são vistos como consequências da decisão e, em realidade, como consequências que não se justificam como custos em relação à suas possíveis vantagens” (Luhmann, 1991, p. 147-148). Por mais cuidadosas que sejam as considerações regulatórias sobre o risco dos sistemas de IA, inauguradas pelo AI Act
RkJQdWJsaXNoZXIy MjEzNzYz