Discriminação algorítmica e LGPD: o papel do princípio da adequação e qualidade nos datasets de treinamento de Sistemas de IA 196 4. O PAPEL DO PRINCÍPIO DA ADEQUAÇÃO E QUALIDADE DE DADOS NA PREVENÇÃO CONTRA DISCRIMINAÇÃO ALGORÍTMICA O princípio da adequação estabelece que os dados utilizados na operação de tratamento sejam apenas os mínimos necessários à finalidade pretendida. Para o treinamento de sistemas de IA isso significa que eles devem ser relevantes, representativos e completos em relação ao problema que pretendem resolver, evitando que vieses e distorções sejam propagados e amplificados pelos algoritmos, produzindo resultados discriminatórios. A minimização dos dados, nesse caso, não significa usar pequenas quantidades de dados no modelo de IA, mas utilizar dados selecionados, que sejam relevantes e limitados ao que é necessário para os propósitos daquele projeto. Já a qualidade dos dados pode ser traduzida em precisão, integridade e consistência, sendo fundamental para garantir que os sistemas de IA tomem decisões justas e imparciais. Como mencionado, dados incompletos, imprecisos ou enviesados podem levar a resultados discriminatórios. São exemplos de dados que podem causar discriminação algorítmica em sistemas de IA: dados históricos enviesados; falta de diversidade nos dados; uso de proxies para características protegidas; perpetuação de estereótipos; falta de transparência e auditoria (Valeri, 2023; Frantz, 2022; Spieler, 2021). Russel (2021, p. 166) alerta sobre os perigos dos vieses algorítmicos, frequentemente derivado dos dados utilizados. Dados corrompidos ou inadequados podem comprometer a eficiência e a imparcialidade das decisões automatizadas. Segundo Doneda e Wimmer (2022, p. 380-381) sistemas de IA também estão propensos a falhas, especialmente quando as suas decisões são guiadas a partir de uma base de dados histórica, que, por vezes, pode refletir vieses sociais de injustiça e discriminação no output domodelo algorítmico. Ao usar dados imprecisos ou resgatar padrões do passado sem, contudo, lembrar do contexto, a decisão automatizada poderia não apenas reproduzir o histórico viés humano, mas, também amplificá-lo: “AI and machine-learning systems appropriately learn from the past, but the past is not a perfect oracle of the future that we want when data on the past reflects injustice and structural inequality” (Matthews, 2020, p. 84). Portanto, os sistemas de IA e aprendizado de máquina aprendem adequadamente com o passado, contudo, o passado não é um
RkJQdWJsaXNoZXIy MjEzNzYz