Discriminação algorítmica, Inteligência artificial, Hipervigilância digital e tomada de decisão automatizada

97 José Julio Fernández Rodríguez se fijan obligaciones de transparencia de los proveedores y responsables del despliegue de determinados sistemas de IA (sistemas que interactúan directamente con personas físicas; sistemas que generen contenido sintético de audio, imagen, vídeo o texto; sistemas de reconocimiento de emociones o sistemas de categorización biométrica; sistemas que generen o manipulen imágenes o contenidos de audio o vídeo que constituyan una ultrasuplantación). También los proveedores de modelos de IA de uso general tienen obligaciones de información en el art. 53.1.b, que se concreta en el anexo XII (lo que incluye “información sobre los datos utilizados para el entrenamiento, las pruebas y la validación, cuando proceda, incluidos el tipo y la procedencia de los datos y los métodos de gestión”). En esta línea, también resulta útil fijar exigencias de auditorías y fórmulas para reclamar ante decisiones tomadas por IA. Esto último está en la línea del derecho comentado antes en el punto 4.8 referido a no aceptar una decisión única automatizada. El control humano debe existir sobre todo en áreas sensibles. Así revelaremos las black boxes presentes en los algoritmos. De lo contrario, la opacidad crecerá, se impedirá una explicabilidad básica y se menguará la confianza pública. De todos modos, también debemos exigir una transparencia efectiva, lo que puede reclamar que la descripción del algoritmo se transmita en lenguaje natural. En todo caso, los principios de transparencia y explicabilidad deben ser la regla general “para que las personas hoy pueden tener conciencia de que están interactuando con sistemas de inteligencia artificial y puedan, con conocimiento de causa, o ponerse los resultados de esa interacción” (Marcazzolo; Walker apud Rocha Espíndola, 2023, 83). La opacidad, por lo tanto, sería la excepción, que como tal debería tener una base de justificación suficiente como para desplazar la regla general de la transparencia. El documento europeo Directrices éticas para una IA fiable considera al principio de explicabilidad como uno de los principios éticos que deben regir en los sistemas de inteligencia artificial. Allí se afirma que “la explicabilidad es crucial para conseguir que los usuarios la documentación, incluidas las instrucciones de uso, contenga información significativa, exhaustiva, accesible y comprensible, que tenga en cuenta las necesidades y los conocimientos previsibles de los responsables del despliegue destinatarios. Las instrucciones de uso deben estar disponibles en una lengua fácilmente comprensible para los responsables del despliegue destinatarios, según lo que decida el Estado miembro de que se trate.”

RkJQdWJsaXNoZXIy MjEzNzYz