Discriminação algorítmica, Inteligência artificial, Hipervigilância digital e tomada de decisão automatizada

Problemas jurídicos para controlar la discriminación algorítmica 98 confíen en los sistemas de IA y para mantener dicha confianza”. Y se a ade: “Esto significa que los procesos han de ser transparentes, que es preciso comunicar abiertamente las capacidades y la finalidad de los sistemas de IA y que las decisiones deben poder explicarse —en la medida de lo posible— a las partes que se vean afectadas por ellas de manera directa o indirecta”. Ante la dificultad de realizar tal explicación se debe acudir a otras medidas complementarias, como la trazabilidad, la auditabilidad y la comunicación transparente sobre las prestaciones del sistema (Unión Europea, 2019, p. 16). De igual forma, la Unesco apuesta por esta explicabilidad para “hacer inteligibles los resultados de los sistemas de IA y facilitar información sobre ellos”, al tiempo que considera que los actores de la inteligencia artificial “deberían comprometerse a velar por que los algoritmos desarrollados sean explicables” (Unesco, 2021, p. 23). • El citado Reglamento UE 2024/1689, por el que se establecen normas armonizadas en inteligencia artificial, establece un sistema de gestión de riesgos con relación a los sistemas de alto riesgo (art. 9). Se trata de “un proceso iterativo continuo, planificado y ejecutado durante todo el ciclo de vida de un sistema de IA de alto riesgo”, que implica “el análisis de los riesgos conocidos y previsibles que el sistema de IA de alto riesgo pueda plantear para la salud, la seguridad o los derechos fundamentales”. Por lo tanto, la discriminación es uno de los temas a tener presente. En la misma línea el Reglamento UE 2024/1689 igualmente prevé una evaluación de impacto relativa a los derechos fundamentales para los sistemas de inteligencia artificial de alto riesgo (art. 27). Esta medida también es útil en lo que ahora nos concierne. Esa evaluación incluye descripciones de los procesos de usos del sistema en consonancia con la finalidad prevista, indicación del período de tiempo de uso, las categorías de personas afectadas, los riesgos de perjuicio específicos, descripción de medidas de supervisión humana, o medidas de respuestas en caso de que dichos riesgos se materialicen. Además, también puede ser de interés la evaluación de conformidad fijada en el art. 43 de este Reglamento UE 2024/1689, de nuevo referida a los sistemas de inteligencia artificial de alto ries-

RkJQdWJsaXNoZXIy MjEzNzYz