Discriminação algorítmica, Inteligência artificial, Hipervigilância digital e tomada de decisão automatizada

55 Pablo Rafael Banchio tación. Los sistemas de IA pueden preseleccionar a los candidatos, analizando sus antecedentes y aptitudes, y realizar entrevistas preliminares a través de chatbots u otras interfaces automatizadas. También pueden utilizarse para evaluar el «ajuste cultural» del candidato con la empresa analizando las respuestas dadas durante las entrevistas o las pruebas. Sin embargo, estos sistemas pueden discriminar si están entrenados con datos sesgados. Por ejemplo, un estudio de la Universidad de Stanford encontró que un algoritmo utilizado para evaluar candidatos a puestos de trabajo favorecía a hombres sobremujeres, reflejando los prejuicios históricos presentes en los datos de contratación. Empresas como Amazon han enfrentado desafíos legales por el uso de algoritmos de selección de personal que discriminan a ciertos grupos demográficos. Estos casos han llevado a un mayor escrutinio y regulaciones sobre las prácticas de contratación automatizadas. En el ámbito de las sociedades de recruiting, los algoritmos utilizados para filtrar currículums pueden discriminar contra ciertos grupos si los datos históricos de contratación reflejan prejuicios de género o raza. Es por ello que las empresas deben adoptar prácticas responsables que garanticen la transparencia, la equidad y la protección de datos, y cumplir estrictamente la normativa vigente para evitar la producción de discriminaciones por medio del uso de sus algoritmos de selección. 4.3 Justicia Penal y Policía Los algoritmos de predicción de riesgo utilizados en el sistema policial y judicial pueden perpetuar disparidades raciales. Los sistemas como PredPol y COMPAS -ampliamente utilizado en Estados Unidos objeto de los fallos vistos supra-, han sido criticado por falta de transparencia y por sesgarse contra afroamericanos, evaluándolos con mayor riesgo de reincidencia en comparación con los blancos, incluso cuando otros factores eran similares. Este sesgo puede resultar en decisiones y detenciones injustas. Otro ejemplo es el uso de programas diseñados para ayudar a los magistrados en las decisiones relativas a la concesion de prision domiciliaria a presos que estan cumpliendo una condena en una

RkJQdWJsaXNoZXIy MjEzNzYz