Discriminação algorítmica, Inteligência artificial, Hipervigilância digital e tomada de decisão automatizada

Problemas jurídicos para controlar la discriminación algorítmica 82 ni más especializados en derechos fundamentales. Por lo tanto, está claro que no es habitual que los constructores de algoritmos tengan una formación específica que les permita captar con toda su intensidad el riesgo de la discriminación. A ello se suma la realidad que persiste en muchos lugares acerca de la escasez de profesionales expertos. El crecimiento de la inteligencia artificial es tan rápido que se plantea una gran necesidad de profesionales técnicos, como científicos de datos o expertos en aprendizaje automático. Ello incrementa el problema que estamos comentando en este subapartado. Es más, se puede predicar incluso mayor escasez de asesores y consultores que desde el respeto de los derechos humanos ayuden a adaptarse de forma más correcta a la nueva realidad precisando las implicaciones de este crecimiento. 4.3 La realidad de partida ¿Y si la realidad de partida es la que determina el resultado de la IA generativa? Es decir, el problema en ocasiones tal vez no esté en el dise o del algoritmo en sí, más bien en unos datos que recogen la situación discriminatoria y que alimentan al sistema. Ante ello, la neutralidad inicial del algoritmo no proporciona soluciones. En efecto, el sistema de inteligencia artificial aprende a través de los datos que se le suministran. Estos datos pueden responder a la realidad, no estar sesgados ni manipulados, e indicar, por ejemplo, situaciones producto de una desigualdad de base. En casos así, el resultado final que genera la inteligencia artificial también reflejará esa desigualdad, pero no por culpa del algoritmo, que puede ser totalmente neutral (en cambio, en otras situaciones el algoritmo sí puede tener un sesgo en su dise o, pero no nos referimos a esos supuestos ahora). Como apunta Miren Gutiérrez “la calidad y relevancia de los datos impacta directamente en la efectividad de los algoritmos, ya que estos dependen de las entradas de datos para generar resultados” (Gutiérrez, 2023). Es a lo que se refiere el principio “basura entra, basura sale” (garbage in, garbage out o GIGO), esto es, si en un sistema entran datos inexactos o sesgados, de mala calidad en ge-

RkJQdWJsaXNoZXIy MjEzNzYz