Sesgos en la era digital: desigualdad algorítmica y pueblos indígenas 332 de especial protección. En Europa la empresa realizó el proceso de difusión sobre los planes, notificación y de objeción de estas políticas, mientras que en América Latina no se brinda estos mecanismos, en razón que, a nivel regional no contamos legislación que regule el uso de la IA. No obstante, Brasil ha exigido a la empresa la suspensión inmediata del uso de datos de los usuarios para entrenar la IA, en razón que estos nuevos términos de uso son un riesgo grave e irreparable de los derechos fundamentales de sus ciudadanos (France24, 2024). Como se ha identificado, tanto el sector empresarial como la parte estatal, se encuentran implementando diferentes sistemas de IA, con el propósito de mejorar los servicios que suministran a la persona y la eficiencia del proceso, para lo cual, estos sistemas de IA se alimentan por diferentes datos con el propósito de cumplir con los objetivos y dar respuesta. Sin embargo, la respuesta que brinda la IA después de un proceso de razonamiento sobre sus parámetros, genera demanera indirecta discriminación. No obstante, cabe resaltar lo se alado por la investigadora Caparrós (2022, p. 9), quien ha identificado en base a la literatura que la actividad que desarrolla los algoritmos en base a los datos y objetivos paramétricos, no llegan a encuadrar a una categoría o motivo prohibido que genere discriminación, en tal sentido, ha catalogado esta acción como discriminación por proxies o proxy, siendo el uso de parámetros aparentemente neutros que tras un proceso de razonamiento de la IA da como resultado una respuesta que encaja en una categoría prohibida, además que, la información que es parte del proceso de parámetros es ocasionada por la percepción que se tiene a grupos determinados por la discriminación estructural que se encuentra arraigada. 2.4 Algoritmos discriminatorios respecto de los pueblos indigenas Los algoritmos discriminatorios son un grave problema para la protección y goce de los derechos humanos, en especial para los grupos vulnerables, ocasionado por los parámetros sesgados que se han usado (Iturmendi, 2023). Pues bien, estos sistemas algorítmicos, deberían estar paramentadas con la realidad de la sociedad, sin embargo, cuando se re-
RkJQdWJsaXNoZXIy MjEzNzYz