Discriminação algorítmica, Inteligência artificial, Hipervigilância digital e tomada de decisão automatizada

Discriminação algorítmica e LGPD: o papel do princípio da adequação e qualidade nos datasets de treinamento de Sistemas de IA 198 (alinhado ao princípio da não discriminação): dados selecionados para um determinado tratamento devem ser exatos, claros, pertinentes e atualizados, sob pena de o output se revelar equivocado e, consequentemente, pode causar danos ao titular; (ii) negativa: dados equivocados, obtidos por meios ilícitos ou desatualizados, devem ser excluídos para fins de um determinado tratamento. Adicionalmente, entende-se pertinente a atenção ao princípio de “Dados representativos e de alta qualidade” (Representative and High Quality Data), presente no artigo “Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI”, desenvolvido pela Berkman Klein Center for Internet & Society at Harvard University, abaixo conceituado: O princípio de “dados representativos e de alta qualidade”, impulsionado pelo que é coloquialmente chamado de problema “lixo entra, lixo sai” [garbage in, garbage out], é definido como o uso de inputs apropriados para um sistema de IA, que se relaciona precisamente com a população de interesse. O uso de um conjunto de dados que não é representativo leva a uma representação distorcida de um grupo no conjunto de dados em comparação com a composição real da população-alvo, introduz viés e reduz a precisão das decisões eventuais do sistema. É importante que os dados sejam de alta qualidade e apropriados ao contexto em que o sistema de IA será implantado, porque um conjunto de dados representativos pode, no entanto, ser informado por viés histórico. Algumas medidas de qualidade para dados incluemprecisão, consistência e validade. Como a definição sugere, os documentos em nosso conjunto de dados frequentemente conectam diretamente esse princípio ao objetivo de mitigar os impactos discriminatórios da IA (traduziu- -se) (Fjeld et al., 2020, p. 25-26). Por fim, tem-se que um agir prudente e atento à principiologia da LGPD, desde a concepção do modelo algorítmico (seleção do dataset e treinamento do modelo), certamente contribuirá para mitigar riscos discriminatórios, podendo também auxiliar (a) o exercício do direito de revisão automatizada (cf. art. 20, LGPD) pelo titular de dados, (b) a revisão administrativa (extrajudicial) do sistema, diante da necessidade de auditoria pela ANPD (cf. art. 20, §2º, art. 4º, inc. IV, alínea b, do Decreto nº. 10.474/2020, e art. 17, inc. IV, do Regimento Interno da ANPD), além de (c) sujeitar o desenvolvedor à menor

RkJQdWJsaXNoZXIy MjEzNzYz