179 André Olivier O uso inadequado da inteligência artificial pode agravar as desigualdades, especialmente quando os dados armazenados são influenciados por preconceitos presentes nos processos de tomada de decisão automatizados. O viés algorítmico, que se manifesta através da tendência e orientação da informação, surge de algoritmos programados para tomar decisões baseadas em dados históricos e padrões observados, frequentemente extraídos de comportamentos e pensamentos humanos. Como resultado, esses algoritmos podem manter e até intensificar esses preconceitos, impactando negativamente a capacidade das pessoas de tomar decisões de forma autônoma e imparcial. À medida que a inteligência artificial se torna mais presente em várias áreas da sociedade, é importante reavaliar os direitos humanos e a igualdade em um cenário tecnológico em constante mudança. O uso de algoritmos pode levar a tratamentos desiguais e discriminatórios, já que essa tecnologia possui a capacidade de automatizar e até mesmo tomar decisões de forma independente, afetando desde processos de contratação até o sistema judicial. A discriminação algorítmica é um risco sério, pois os algoritmos são desenvolvidos com base em dados históricos que podem refletir os preconceitos e desigualdades existentes na sociedade. A tendência é que façam isso, multiplicando os problemas que já possuímos emmatéria de proteção dos direitos humanos. Por isso, é vital realizar pesquisas que explorem o impacto da IA na (des)igualdade entre as pessoas, identificando possíveis vieses e direcionando a criação de políticas regulatórias que promovam avanços tecnológicos de maneira ética, transparente e responsável, assegurando a igualdade de oportunidades e o respeito aos direitos humanos em ummundo cada vez mais digital. REFERÊNCIAS BAROCAS, Solon; HARDT, Moritz; NARAYANAN, Arvind. Fairness and machine learning: limitations and opportunities. Cambridge: MIT Press, 2023. BENJAMIN, Ruha. Race after technology: abolitionist tools for the New Jim Code. Durham: Duke University Press, 2019.
RkJQdWJsaXNoZXIy MjEzNzYz