Discriminação algorítmica, Inteligência artificial, Hipervigilância digital e tomada de decisão automatizada

195 Gabriel Cemin Petry, João Sérgio dos Santos Soares Pereira e Karin Regina Rick Rosa Assim, de maneira progressiva, dados pessoais e não pessoais são utilizados como insumo para tratamentos automatizados destinados a produzir decisões sem a apreciação humana, com o objetivo de avaliar aspectos da personalidade do titular dos dados, produzindo efeitos na sua esfera jurídica ou afetando-o de maneira significativa. As relações sociais e económicas, cada vez mais subjugadas pela massificação, acabam por dificultar uma análise particular das informações, e a complexidade do ser humano termina reduzida a certo perfil comportamental (Korkmaz, 2023, p. 22-23). É fundamental que os dados sejamcoletados de fontes confiáveis, utilizando métodos rigorosos, garantindo que sejam representativos da população que se deseja analisar e que não existam vieses na coleta. Depois desta, os dados são pré-processados para servir ao modelo de treinamento. Esse processo geralmente envolve a limpeza para identificação e remoção de conteúdo irrelevante ou de baixa qualidade, erros, inconsistências e valores ausentes. As principais técnicas de limpeza são: (i) perfil de dados automatizado: consiste na verificação automática do perfil de todo o conjunto de dados para identificar problemas de qualidade, como valores ausentes, duplicatas, inconsistências e erros de formatação; (ii) padronização e validação: aplicação de regras de padronização para garantir formato consistente dos dados e validação em relação a regras predefinidas ou dados de referência; (iii) desduplicação: consiste na identificação e remoção ou mesclagem automática de registros ou entradas duplicadas; (iv) análise e transformação: consiste na análise de estruturas de dados complexas, como endereços ou nomes, e a transformação em um formato padronizado; (v) correção de erros: a partir de regras predefinidas é feita a correção automática de erros comuns de ortografia ou de valores incorretos (Ahmed, 2024). Em suma, “L’IA ha bisogno di dati per essere addestrata e pertanto di dati per applicare il suo addestramento” (Floridi, 2022, p. 59). Assim, a coleta e utilização de dados pessoais (art. 5º, inc. I e II, LGPD), inclusive comportamentais, nos termos do art. 12, § 2º, da LGPD, faz-se presente no processo de formação dos bancos de dados utilizados no treinamento da IA, de modo que, constitui-se clara operação de tratamento de dados, atraindo os direitos, obrigações, salvaguardas e princípios esculpidos no texto da LGPD.

RkJQdWJsaXNoZXIy MjEzNzYz