Os sistemas de IA: entre os riscos e as possibilidades do princípio da precaução 396 rificáveis, reproduzíveis e, portanto, confiáveis, objetivas, e sobre o mundo material e biológico. O conhecimento científico, dentro desse arcabouço estrutural, conseguia dar respostas corretas, a partir dos seus signos de comunicação de “verdadeiro” ou “falso”. Desde esse ponto de vista da Ciência, se pode observar uma progressiva mudança, inaugurando as bases da chamada “Ciência Moderna”, que pretende conhecer como é o mundo, a partir do nascimento da “tecnociência”: a junção progressiva da ciência e da técnica (Morin, 2010, p. 9). O objetivo principal da tecnociência, “[...] consiste em transformar o mundo, seja ele natural, social ou artificial. [...] Para o cientista o conhecimento é um fim em si, enquanto para um tecnocientista é um meio para se alcançar objetivos de outra índole. [...]”. Vale dizer, esse movimento tecnocientífico não está preocupado com a geração de conhecimento, pois da pesquisa deverão emergir “[...] desenvolvimentos tecnológicos e inovações” (Echeverría, 2009, p. 23). Essas características da Ciência Moderna inauguram diversos movimentos, destacando a complexidade e a importância da transdisciplinaridade (Morin, 2010, p. 135 e seg.): campos como biologia de sistemas, pensamento de resiliência, economia ecológica e ciência da sustentabilidade, todos eles enfatizam a necessidade de se estudar os sistemas como conjuntos e investigar a dinâmica, interações, ciclos de retroalimentação, auto-organização e responsividade em uma perspectiva de longo prazo e ampla escala (Wickson; Gillund; Myhr, 2010, p. 448). Será na convergência dessas perspectivas científico-metodológicas que se abrem espaços renovados e criativos para a utilização pragmática do princípio da precaução, justamente para analisar, avaliar e mitigar os riscos que poderão ser caracterizados pelos sistemas de IA. O AI Act pretende circunscrever o risco, categorizando-o e definindo abordagens para cada um dos níveis de incerteza antes detalhados. Será importante levar emconsideração as “formas quantitativas” de incerteza: o risco, se situa em uma região de análise onde se pode ter uma probabilidade calculada. Vale dizer, se poderá imaginar um possível impacto dos sistemas de IA e calcular a probabilidade de ocorrência desse impacto, mesmo que isso ocorra ou não seja desconhecido. Nesse nível, se poderá situar o denominado “risco sistêmico”. No entanto, a incerteza apresenta um segundo nível, onde se posiciona a incerteza: são situações em que se pode
RkJQdWJsaXNoZXIy MjEzNzYz