153 Inteligência Artificial e segredo de negócio: uma aproximação a partir da LGPD dos e como foram usados na fase de “treino” e ser responsáveis pelas decisões feitas sobre os algoritmos que utilizam; iv) validação e testes: utilização de métodos rigorosos para validar os modelos e documentar esses métodos e resultados. Matthews (2020, p. 83-87) ainda sumariza as condutas inadequadas (antipadrões) que podem ocorrer quando os princípios supracitados não são seguidos: 1) aprendizado com o passado sem levar em consideração o contexto; 2) realizar correlações incongruentes; 3) aprendizado com humanos sem considerar a possibilidade de treinamento malicioso; 4) utilização de longas pipelines46 em contextos imprevistos; 5) utilização de dados imprecisos (ou que possui) ao invés dos dados necessários (passiveis de coleta)47; 6) resistência a revisões do sistema; 7) falha ao medir o impacto social do sistema implantado; 8) definição inadequada do papel e responsabilidade dos humanos envolvidos no tomada de decisão; 9) fornecer transparência sem especificar responsabilidades ou quem deve prestar contas. Dentro do contexto regulatório europeu, a discussão quanto a opacidade algorítmica e as black boxes resultaram e previsões legais específicas para o uso de decisões automatizadas na General Data Protection Regulation (GDPR) – legislação que buscou “equilibrar os interesses dos titulares de dados e os de organizações que buscammaior eficiência de processos. Não há como negar que o uso de decisões automatizadas gera maior consistência e eficiência.” (Magrani; Perrone; Souza, 2021, p. 257). Essas previsões serão exploradas no próximo ponto, contudo, antecipa-se ao dispor que o Considerando (Recital) 46 O conceito de pipeline remonta o processo pelo qual o material (físico, líquido ou gasoso) percorre dutos. Esse termo é utilizado no mundo do desenvolvimento de softwares para descrever uma cadeia de instruções ou regras que devem ser sempre seguidas. 47 Segundo Russel, na atualidade as causas mais prováveis de vieses algorítmicos estão nos dados que foram utilizados, mais do que alguma “perversidade” das instituições responsáveis. In: RUSSEL, Stuart. Inteligência artificial ao nosso favor: como manter o controle sobre a tecnologia. Trad. Berilo Vargas. São Paulo. Companhia das Letras, 2021. p. 166.
RkJQdWJsaXNoZXIy MjEzNzYz