Inteligência Artificial e segredo do negócio

65 Inteligência Artificial e segredo de negócio: uma aproximação a partir da LGPD a autora adverte quanto ao uso generalizado desses sistemas e como isso impacta profundamente a qualidade da democracia para todos. Posto isso, Eubanks (2018, p. 12) tece a seguinte crítica à tomada de decisões automatizadas: A tomada de decisão automatizada destrói a rede de segurança social, criminaliza os pobres, intensifica a discriminação e compromete nossos valores nacionais mais profundos. Ele reformula as decisões sociais compartilhadas sobre quem somos e quem queremos ser como problemas de engenharia de sistemas. E enquanto as ferramentas digitais de tomada de decisão mais abrangentes são testadas no que poderia ser chamado de “ambientes de baixo direito”, onde há poucas expectativas de responsabilidade política e transparência, os sistemas inicialmente projetados para os pobres acabarão sendo usados em todos (traduziu-se).23 Ademais, como resultado da capacidade de aprendizado de máquina, comumente empregada em sistemas capazes de realizar tomada de decisões automatizadas, tarefas realizadas por sistemas algorítmicos acabam por serem dificilmente previstas ou antecipadas – e tampouco passíveis de serem explicadas posteriormente. Nesse sentido, Mittelstadt, Allo, Taddeo, Wachter e Floridi (2016) delinearam um mapa conceitual tratando dos “seis tipos de preocupações éticas no uso de algoritmos” (Figura 1), levando em consideração que o uso do algoritmo será utilizado para transformar dados (input) em “evidências” care system, or cross-national borders. That data acts to reinforce their marginality when it is used to target them for suspicion and extra scrutiny.”. In: EUBANKS, Virginia. Automating Inequality: How high-tech tools profile, police, and punish the poor. New York: St. Martin Press, 2018. p. 12. 23 No original: “Automated decision-making shatters the social safety net, criminalizes the poor, intensifies discrimination, and compromises our deepest national values. It reframes shared social decisions about who we are and who we want to be as systems engineering problems. And while the most sweeping digital decision-making tools are tested in what could be called ‘low rights environments’ where there are few expectations of political accountability and transparency, systems first designed for the poor will eventually be used on everyone”. In: EUBANKS, Virginia. Automating Inequality: How high-tech tools profile, police, and punish the poor. New York: St. Martin Press, 2018. p. 12.

RkJQdWJsaXNoZXIy MjEzNzYz