Problemas jurídicos para controlar la discriminación algorítmica 76 La Unesco, por su lado, ha recordado el potencial de los algoritmos de la inteligencia artificial “para reproducir y reforzar los sesgos existentes, lo que puede exacerbar las formas ya existentes de discriminación, los prejuicios y los estereotipos” (Unesco, 2021, p. 10). En el mismo texto se asevera que “los actores de la IA deberían promover la justicia social, salvaguardar la equidad y luchar contra todo tipo de discriminación” (Unesco, 2021, p. 20); y que esos actores “deberían hacer todo lo razonablemente posible por reducir al mínimo y evitar reforzar o perpetuar aplicaciones y resultados discriminatorios o sesgados a lo largo del ciclo de vida de los sistemas de IA, a fin de garantizar la equidad de dichos sistemas” (Unesco, 2021, p. 21). De esta forma, los Estados y las empresas “deberían aplicar medidas adecuadas para vigilar todas las etapas del ciclo de vida de los sistemas de IA en el marco de la evaluación del impacto ético, incluidos el funcionamiento de los algoritmos utilizados para la adopción de decisiones” (Unesco, 2021, p. 26). De igual modo, la doctrina ha recordado de forma recurrente esta problemática. Podemos citar a César Landa cuando indica que “los algoritmos, de manera general, pueden presentar sesgos, intencionados o no, incorporados a su propio sistema, que resultan ser difíciles de detectar y enmendar”. A lo que a ade: “Y esto supone una mayor afectación cuando las variables de esos algoritmos están relacionadas a derechos constitucionales protegidos especialmente por tratarse de situaciones y contextos históricamente vulnerables, ya sea por raza, sexo nacionalidad, entre otros” (Landa, 2023, 171). Por su parte, Natalia Criado asevera que la discriminación digital a menudo reproduce los casos de discriminación existentes en el mundo real, ya sea heredando los sesgos de los tomadores de decisiones anteriores o simplemente reflejando prejuicios generalizados en la sociedad (Natalia Criado, 2019). A su vez, Gutiérrez afirma que “cada vez con más frecuencia, los sistemas de bienestar utilizan datos y algoritmos para ayudar en la toma de decisiones sobre asuntos como quién debe recibir asistencia y de qué tipo o quién presenta riesgos”, ante lo que hay que tener en cuenta que “estos algoritmos consideran diferentes factores como ingresos, tama o de la familia o de la vivienda, gastos, factores de riesgo, edad, sexo o género, que pueden incluir sesgos y omisiones” (Gutiérrez, 2023).
RkJQdWJsaXNoZXIy MjEzNzYz