Discriminação algorítmica, Inteligência artificial, Hipervigilância digital e tomada de decisão automatizada

163 André Olivier serviços podem sofrer cortes significativos de empregos. Isso pode resultar em um aumento da desigualdade de renda, à medida que os trabalhadores substituídos enfrentam dificuldades para encontrar novas oportunidades de emprego. Para mitigar esse impacto negativo e garantir que os benefícios da automação sejam compartilhados de forma justa, é fundamental implementar políticas que promovam a reciclagem e a requalificação da força de trabalho. Oferecer programas de treinamento e educação contínua é essencial para ajudar os trabalhadores a adquirirem novas habilidades e se adaptarem às demandas do mercado de trabalho em transformação, reduzindo assim o risco de ampliação das desigualdades econômicas e assegurando uma transição mais equitativa para uma economia cada vez mais automatizada. Com a implementação dos sistemas de IA, a tomada de decisão será, cada vez mais, automatizada e terceirizada aos robôs. Quando decisões são automatizadas por algoritmos, a presença de viés pode resultar em diagnósticos imprecisos e decisões que favorecem ou discriminam determinados grupos sociais. A partir da lógica do viés algorítmico, torna-se necessário indagar a parcialidade na tomada de decisão, um problema, aliás, que já existe no modelo analógico de tomada de decisões exclusiva de seres humanos. Como os sistemas de IA estão sendo treinados com dados provenientes de humanos, não seria irrazoável supor que o viés não só continuará sendo identificado na tomada de decisão, quanto poderá ser acentuado e agravado. Por exemplo, um sistema de IA usado para triagem de currículos pode inadvertidamente discriminar candidatos de certas origens étnicas ou gêneros se for treinado com dados históricos que refletem preconceitos existentes. Da mesma forma, em sistemas de saúde, um algoritmo pode oferecer diagnósticos ou tratamentos que são menos precisos para grupos minoritários se não forem adequadamente ajustados para considerar a diversidade da população. Essa parcialidade pode levar a resultados tendenciosos e prejudiciais, exacerbando desigualdades e comprometendo a justiça e a equidade nos processos de decisão automatizados. Nos sistemas de justiça, o caso do COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) é o que mais evidencia o caráter discriminatório e enviesado nas tecnologias de IA.

RkJQdWJsaXNoZXIy MjEzNzYz