Inteligência Artificial e segredo do negócio

133 Inteligência Artificial e segredo de negócio: uma aproximação a partir da LGPD a IA chegou lá, em que se baseou?” (traduziu-se)39. Essa é justamente a constatação de Aranovich (2023): No entanto, as decisões da IA ​podem ser erradas ou tendenciosas, causando danos aos indivíduos e à sociedade. Quanto mais as pessoas estiverem cientes das falhas e dos danos potenciais, maior será a necessidade de menos opacidade e de ferramentas eficientes para maior reconhecimento e escrutínio das decisões dos algoritmos. [...] Em aplicações de saúde, as decisões de IA são de “alto risco”. Um apelo à transparência e explicabilidade da IA n​ os cuidados de saúde não é puramente teórico. Diferentemente de outros setores, o preconceito na saúde podematar. [...] A explicabilidade da IA é importante tanto para pacientes quanto para médicos (traduziu-se) (Aranovich, 2023, p. 199).40 Para Pasquale (2015, p. 3-5), a discussão sobre o escrutínio de decisões algorítmicas é relevante, visto que a autoridade é expressa de forma cada vezmais algorítmica, demodo que decisões, antes realizadas por pessoas, hoje são realizadas de forma automatizada, em uma fração de segundos – sem que, por vezes, seja possibilitada explicação ou contestação pelo interessado (ainda que presente suspeitas de vieses), para lembrar do caso da utilização da ferramenta IMPACT, descrito por O’Neil (2020, p. 8). 39 No original: “Immaginiamo un software che dica a un medico: “in base alle mie analisi, il paziente ha un tumore”; oppure: “quel tumore non è operabile”. Come possiamo darci di questa conclusione, se non possiamo sapere come ha fatto l’AI ad arrivarci, su che cosa si sia basata?”. In: LONGO, Alessandro; SCORZA, Guido. Intelligenza artificiale: l’impatto sulle nostre vite, diritti e libertà. Milano: Mondadori Università, 2020. p. 52. 40 No original: “However, AI decisions may wrong or biased, causing harm to individuals and society. The more people are aware of flaws and potential harm, the higher the call for less opacity and efficient tools for greater acknowledgment and scrutiny of algorithm decisions. [...] In healthcare applications, AI decisions are “high stake”. A call for AI transparency and explainability in healthcare is not purely theoretical. Different from other sectors, bias in healthcare may kill. […] AI explainability is important for both patients and doctors.” ARANOVICH, Tatiana. Trade secrets do not impair transparency and explainability on AI-based medical devices (if regulators act as robust gatekeepers). In: FERNANDES, Márcia Santana; CALDEIRA, Cristina Maria de Gouveia (org.). Inteligência artificial e propriedade intelectual. Rio de Janeiro: GZ, 2023. p. 199.

RkJQdWJsaXNoZXIy MjEzNzYz