Sesgos en la era digital: desigualdad algorítmica y pueblos indígenas 334 y mujeres con utensilios de limpieza en casas de lujos, este resultado genérico se encontraba arraigada a contextos de Estados Unidos y Europa. Sin embargo, cuando se agregaba en el Prompt la palabra México, está daba como resultado tres imágenes de mujeres con vestidos tradicionales con escoba, este resultado refuerza el estereotipo de las personas indígenas en México, como sujetos de limpieza en los hacendados siguiendo narrativas racistas (Maram, 2024). Igual resultado se obtuvo, cuando se realiza la búsqueda de: Hombres pobres de Ecuador, mujeres pobres de Latinoamérica, mujeres Latinoamérica trabajando, dando como resultado a personas indígenas, reforzando estereotipos raciales (Derechos Digitales, 2024). Este primer reto que sufren los pueblos indígenas, por ser objeto de información sesgada e inexacta por parte de la IA, es parte de una discriminación normalizada y aceptada por la sociedad, sin embargo, no deja de realizar discriminación indirecta, ya sea por el contexto histórico o por estadística con precisión baja sobre la realidad que se vive actualmente por parte de los pueblos indígenas. Ahora bien, anteriormente los motores de búsqueda en América Latina, una región con presencia mayoritaria de pueblos indígenas, el contenido sobre este grupo de especial protección no era prioridad para visibilizar (Gasparotto, 2016, p. 15). Sin embargo, se ha podido observar que sobre el contexto que viven los pueblos indígenas en la actualidad, se da más visibilidad a los pueblos indígenas en América Latina sobre algunos temas puntuales, para lo cual se le pregunto a Chat GPT el 8 de julio de 2024, lo siguiente ¿Por qué son conocidos los pueblos indígenas en América Latina en la actualidad y qué información relevante brindan sobre ellos?, lo cual dio como respuesta: (i) Cultural y patrimonio, (ii) conocimientos ambientales, (iii) derechos y autonomía, (iv) contribuciones sociales, y (v) desafíos y resistencia, toda esta información en el contexto de diversidad cultural, ambiental y el rol en defensa de los derechos humanos, justicia social y la sostenibilidad en la región y a nivel global (OPENAI, 2024). Otro caso, también es el uso de estos sistemas de IA con el propósito del reconocimiento facial, donde estos sistemas funcionaban de manera correcta en rostros blancos, el cual es una evidencia de sesgo algorítmico que genera una discriminación indirecta por generar un beneficio sistemático a un grupo de individuos frente a otro (Ramírez, 2023, p. 8).
RkJQdWJsaXNoZXIy MjEzNzYz