Discriminação algorítmica, Inteligência artificial, Hipervigilância digital e tomada de decisão automatizada

107 José Julio Fernández Rodríguez bién genera retroalimentación por medio de un escrutinio público, aunque de nuevo limitado al sector público. Estos registros se han valorado positivamente, como una “herramienta útil para documentar, de forma estandarizada e indexable, las decisiones y supuestos que ha tomado una administración pública sobre un sistema algorítmico durante todo su ciclo de vida” (Boet y Pérez-Batlle, 2023). El Laboratorio del Foro Digital de la red EUROCITIES impulsa estos registros en Barcelona, Bruselas, Bolonia, Eindhoven, Mannheim, Rotterdam y Sofía. Un listado de estos registros y repositorios, con fecha de actualización en noviembre de 2023, puede verse en https://forogp. com/inteligencia-artificial/repositorios-y-registros-de-algoritmos/. De igual forma, traemos a colación al Observatory of Algorithmswith Social Impact (OASI), una iniciativa de Eticas Foundation21. En él se reúnen los algoritmos utilizados por gobiernos y empresas de todo el mundo para arrojar luz sobre su uso e impacto, para lo cual existe un buscador que facilita esta tarea. Se da información sobre quién los ha desarrollado, quién los usa, sus objetivos e impacto, y si han sido auditados. También ha desarrollado una metodología para auditar algoritmos, incluso sin acceder a su código y analizando su impacto una vez implementado el algoritmo en cuestión (auditoría inversa). También es sugerente la existencia de agencias, comités o paneles independientes que supervisan los sistemas de inteligencia artificial, sobre todo del sector público. Este supuesto de accountability genera una auditoria de los algoritmos y evaluaciones de impacto22. Es difícil sintetizar su labor puesto que encontramos mucha diversidad en su configuración, funciones y garantías. Ya citamos antes el Consejo Europeo de Inteligencia Artificial previsto en el Reglamento UE 2024/1689, y la necesidad de que los Estados europeos designen autoridades nacionales (como en Espa a con la aludida también más arriba AESIA). También en el sector privado encontramos comités de ética en inteligencia artificial como exigencia de un futuro digital responsable (Alfaro, 2024). 21 Disponible en: https://eticasfoundation.org/oasi/. Acceso el: 20 oct. 2024. 22 En Espa a la citada Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación, recoge que las administraciones publicas promoverán “la realización de evaluaciones de impacto que determinen el posible sesgo discriminatorio” (art. 22.1).

RkJQdWJsaXNoZXIy MjEzNzYz