Discriminación algorítmica: un análisis jurídico de los desafíos y oportunidades en la era digital 46 completo los sesgos de los algoritmos es un objetivo complejo, ya que pueden reflejar preconceptos sociales. Sin embargo, pueden aplicarse estrategias para reducirlos y gestionarlos como selección de datos para garantizar la calidad y diversidad de los datos utilizados para entrenar los algoritmos, como postularemos infra. b) b) Falta de diversidad en los equipos de desarrollo: los equipos de desarrollo de IA y AA a menudo no son representativos de la diversidad de la población a la que se aplicarán sus algoritmos. Esto puede conducir a una falta de comprensión de los posibles impactos discriminatorios de los algoritmos porque los sesgos se manifiestan en las preguntas y entradas que se proporcionan a los algoritmos. Numerosos estudios demuestran que algoritmos con la misma tarea o rutina de trabajo, si se dise an en lugares geográficos distintos, pueden reaccionar de maneras diferentes. Esto acredita que ni siquiera los diseadores de algoritmos son inmunes a los sesgos, ya que están influidos por el contexto social y cultural en el que operan. La discriminación, por tanto, puede estar presentes tanto en los equipos que dise an los algoritmos como en los datos utilizados por los propios algoritmos. Esto puede conducir a discriminación algorítmica, dependiendo del entorno en que los datos son utilizados. En efecto, incluso quienes dise an los algoritmos no son ciertamente ajenos a un determinado contexto social y cultural, y están sujetos a sus propios sesgos, que también pueden manifestarse en forma de discriminación algorítmica. Estos sesgos sociales pueden influir en los datos utilizados por el algoritmo, con el riesgo de generar resultados parciales. c) Falta de transparencia y responsabilidad: los algoritmos amenudo son opacos, lo que significa que es difícil entender cómo funcionan y por qué toman ciertas decisiones. Esto dificulta la identificación y la corrección de sesgos discriminatorios. Estos sesgos, presentes en la información de origen, se reflejarán en los resultados del algoritmo, perpetuando y amplificando las desigualdades y la discriminación.
RkJQdWJsaXNoZXIy MjEzNzYz