XXI SEMINANOSOMA

417 Anais do XXI Seminário Internacional Nanotecnologias, Sociedade e Meio Ambiente desafios jurídicos éticos e sociais para a “grande transição sustentável” (XXI SEMINANOSOMA) os princípios basilares de equidade e justiça. Nesse sentido, o objetivo geral desta investigação consiste em perscrutar os mecanismos pelos quais os algoritmos de IA perpetuam práticas de cunho discriminató- rio em certames e, além disso, propor normativas que resguardem os direitos das minorias étnico-raciais. Entre os objetivos específicos, so- breleva-se (i) escrutinar casos paradigmáticos de racismo algorítmico em processos seletivos e suas repercussões sociais; (ii) examinar os pressupostos teóricos e práticos subjacentes ao aprendizado de má- quina que fomentam a criação de algoritmos excludentes; e (iii) esta- belecer diretrizes normativas que visem atenuar os efeitos perniciosos da IA no âmbito in casu. A justifica teórica da presente investigação as- senta-se na necessidade de aprofundar o entendimento sobre a inter- secção entre tecnologia e racismo, promovendo uma crítica aprofundada sobre as repercussões da IA na esfera jurídico-social. Do ponto de vista social, o trabalho justifica-se pela imperiosidade de combater a persistência de práticas discriminatórias via tecnologias emergentes. Método: Adotar-se-á o método hipotético-dedutivo, respaldado nos princípios epistemológicos de Karl Popper, o que permitirá a formu- lação e testagem de hipóteses para aferir a robustez dos argumentos formulados. A investigação terá natureza essencialmente bibliográ- fica, contemplando uma análise exaustiva de fontes acadêmicas e ju- rídicas, as quais servirão de substrato para os fundamentos teóricos propostos. A abordagem será qualitativa, proporcionando uma análise crítica do quantum coligido. Resultado: Os resultados preliminares desta investigação apontam que a utilização da inteligência artificial em processos de recrutamento, quando desprovida de supervisão e controle rigorosos, tem promovido a perpetuação, e em certos casos a intensificação, de prática de cunho discriminatório. O exame de exemplos, como o da Oxford University, que foi compelida a interromper a aplicação de seu algoritmo de recrutamento em razão de preconceitos raciais, evidencia a falência estrutural da IA em lidar com a justiça racial. Elementos de aprendizado de máquina, ao serem treinados com dados históricos, tendem a reproduzir padrões discriminatórios, es- pecialmente quando sua decisões se baseiam em características vinculadas à raça, etnia ou outras categorias resguardadas. Verificou-se, ademais, que as práticas de autoria desses sistemas encontram-se em estágio incipiente, bem como que há uma notável lacuna regulatória no que concerne à transparência e à responsabilidade/accountability na aplicação dessas tecnologias nos processos seletivos. Conclusão: Em síntese, a pesquisa evidencia que, embora a inteligência artificial possua o potencial de revolucionar os mecanismos de seleção de can-

RkJQdWJsaXNoZXIy MjEzNzYz