47 Pablo Rafael Banchio Identificar quién es responsable de la discriminación causada por decisiones algorítmicas sesgadas es una empresa compleja que requiere un análisis en profundidad de varios factores: los desarrolladores del algoritmo, quien ha dise ado el software, la entidad que lo aplica o el usuario final. Si una persona afectada por el razonamiento algorítmico no es capaz de comprender lo que está ocurriendo, no podrá hacer valer sus derechos ante los tribunales. La falta de conocimiento sobre la dinámica algorítmica impide que la persona recurra a los recursos adecuados y defienda sus intereses con eficacia. d) Dise o del algoritmo: las decisiones de dise o, como la selección de variables y la configuración de los modelos, pueden introducir contenidos discriminatorios si no se consideran cuidadosamente. El combustible de un sistema de IA es la información, por tanto, una información de mala calidad generará inevitablemente resultados algorítmicos igualmente malos. Este principio se conoce como GIGO (garbage in, garbage out) o “basura que entra, basura que sale”, es decir, si se introducen en el sistema datos de baja calidad y pobres, se obtendrán resultados de igual condición. Existen, como anticipamos y postularemos infra, técnicas de “debiasing” que aplican métodos estadísticos para identificar y eliminar sesgos de los datos demala calidad. También es posible auditar los algoritmos para evaluarlos periódicamente con el fin de detectar y corregir sesgos discriminatorios, ya que el uso de datos “basura” genera importantes retos legales y de responsabilidad. e) Interpretación de los resultados: la forma en que se interpretan y utilizan los resultados algorítmicos puede también llevar a decisiones discriminatorias. Cuando se trata de procesos automatizados, ¿hasta qué punto puede decirse que es la IA la que realiza la acción en su totalidad? Podemos pensar en las normas antidiscriminatorias, que tratan casos específicos, para un examen más detallado, sin embargo, tenemos que considerar si la discriminación algorítmica entra dentro de esos casos, por las razones que hemencionado anteriormente. Esto plantea importantes cuestiones relativas a la rendición de cuentas o accountability y la transparencia en el uso de sistemas de IA, subrayando la necesidad de adoptar medidas eficaces para garantizar la pro-
RkJQdWJsaXNoZXIy MjEzNzYz