75 José Julio Fernández Rodríguez nes con esa debilidad. Los patrones de datos se emplean para aprender gracias a ciertos algoritmos que son los que posibilitan dicho aprendizaje automático. El problema es capaz de persistir en los tres tipos de aprendizaje automático: el supervisado, el no supervisado y el de refuerzo. En un principio parece que el desajuste mayor se produciría en el aprendizaje no supervisado en la medida en que el algoritmo no emplea datos etiquetados u organizados con anterioridad, por lo que no requiere intervención humana. No obstante, es precisamente la intervención humana la que tal vez provoque los sesgos que determinan la discriminación, por lo que sería el aprendizaje supervisado el que potencialmente resulta más problemático. El aprendizaje profundo (deep learning) a través de redes neuronales en capas (deep neural networks) tampoco está libre de estos problemas. Se trata de una subcategoría del aprendizaje automático que sirve para modelar y comprender patrones complejos en grandes conjuntos de datos. Estas redes se entrenan usando grandes cantidades de datos etiquetados, para lo cual es preciso ajustar los pesos de los mismos empleando técnicas de optimización (el tipo de algoritmo más conocido para esto es el descenso de gradiente). Recapitulando tras lo dicho, podemos sostener que el riesgo de discriminación algorítmica puede aparecer en las distintas modalidades que adopta el trabajo con algoritmos e inteligencia artificial. Ello es, por lo tanto, un refuerzo de la gravedad del problema, lo que, por cierto, ya ha sido denunciado por distintos documentos y autores. En este sentido, podemos traer a colación a la Comisión Europea que advierte sobre esta discriminación en varios lugares. Así sostiene que existe una “necesidad de evitar sesgos injustos” dado que “los conjuntos de datos que utilizan los sistemas de IA (tanto con fines de formación como para su funcionamiento) pueden presentar sesgos históricos inadvertidos, lagunas o modelos de gestión incorrectos”, cuyo mantenimiento “podría dar lugar a prejuicios y discriminación (in)directos e involuntarios contra determinados grupos o personas, lo que podría agravar los estereotipos y la marginación” (Unión Europea, 2019, p. 24); y también dice que “la inteligencia artificial conlleva una serie de riesgos potenciales, como la opacidad en la toma de decisiones, la discriminación de género o de otro tipo, la intromisión en nuestras vidas privadas o su uso con fines delictivos” (Unión Europea, 2020, p. 1).
RkJQdWJsaXNoZXIy MjEzNzYz