Discriminação algorítmica, Inteligência artificial, Hipervigilância digital e tomada de decisão automatizada

Sesgos en la era digital: desigualdad algorítmica y pueblos indígenas 324 en la importancia de la transparencia y la explicabilidad algorítmica para garantizar la protección de los derechos fundamentales y evitar decisiones discriminatorias o perjudiciales. [...]. En suma, la aprobación de la Declaración de Toronto, así como de los otros documentos y declaraciones antes descritos, evidencia una preocupación global en la búsqueda de una asimetría armoniosa entre el avance sin pausa de la IA y su coherencia, el respecto y salvaguarda con los derechos humanos; más aún cuando se trata de poblaciones vulnerables, como son los pueblos indígenas. 2.2 Ética en la inteligencia artificial: perspectivas desde América Latina y el Caribe La IA, como toda creación en este caso desarrollada por humanos, tiene una visión y sesgos de su creador o creadores, por ello la conexión con la ética es una de las formas de abordar los desafíos sobre el uso de algoritmos. Dado que el ser humano puede tener sesgos cognitivos, y que las empresas buscan mejorar sus resultados comerciales, aun cuando los datos pueden estar sesgados. Por ello la ética en la IA garantiza que los algoritmos sean justos, transparentes y respetuosos de los derechos humanos y las libertades civiles (Ministerio De Ciencia, Tecnología E Innovación, 2024, p. 21). En ese sentido, es necesario que se realicen lineamientos para el desarrollo y uso humano de estos sistemas algorítmicos de forma ética (Cortina, 2019, p. 8). Y sobre esta necesidad, existen retos y problemas que no permiten el uso ético de estos sistemas. En base a la literatura se ha identificado los siguientes problemas para el uso y dise o de las IA: (i) El uso de estadísticas sin basarse en las conexiones causales, (ii) Falta de rendición de cuentas, (iii) Los sesgos generados por evidencia errónea, (iv) Los resultados injustos producto de la falta de criterios éticos como la no discriminación o estratos sociales, (v) Obstaculizar la autonomía humana, mediante el uso de información política dirigida y segmentación de información personalizada, y (vi) Falta de transparencia y responsabilidad jurídica sobre las decisiones algorítmicas (Esquembre, 2023, p.7). Ante ello, como ha recomendado el Relator Especial sobre la promoción y protección del derecho a la libertad de opinión y de ex-

RkJQdWJsaXNoZXIy MjEzNzYz