327 Renato Sebastiani-León Mazza y María Eugenia-Zevallos Loyaga En Argentina, mediante proyecto legislativo, se ha prohibido el uso de IA con fines ilegales, discriminatorios, maliciosos o que tenga como objeto ir en contra de los derechos humanos, además, se ala que la discriminación injusta es el uso de algoritmos que tengan sesgos hacia un determinado grupo de personas por raza o género, entre otras (Senado Y Cámara De Dipurados De Argentina, 2023). En Chile, mediante proyecto legislativo, se ha incorporado cuatro categorías de riesgo en IA, los cuales son (i) riesgo inaceptable, los cuales están prohibidos, (ii) alto riesgo, (iii) riesgo limitado, y (iv) riesgo evidente. Siendo que la primera categoría se encuentra incompatible con el respeto y garantía de los derechos fundamentales de las personas, y que su introducción al mercado o servicios es prohibida. Además, la IA debe regirse por los siguientes principios: Diversidad, no discriminación y equidad, promover la igualdad de oportunidades, género y diversidad cultural, entre otros (Cámara De Diputados De Chile, 2024). En México, mediante iniciativa del diputado Ignacio Loyola, se presentó ante el Congreso un escrito de Ley para la regulación ética de IA, con el objetivo de desarrollar estándares de ética para el uso de IA (Torres, 2024). En Perú, mediante reglamento de Ley N°31814, se incorpora una serie de principios rectores en el uso y desarrollo de IA, tales como: (i) Protección y centralización de la dignidad humana, (ii) Inclusión y equidad, (iii) Sostenibilidad, (iv) Alfabetización digital, (v) Acceso compartido, (vi) Seguridad, proporcionalidad y fiabilidad, (vii) no discriminación, (viii) Protección de la privacidad y datos personales, (ix) transparencia y explicabilidad, (x) responsabilidad, y (xi) rendición de cuentas y supervisión humana (Congreso Del Perú, 2024). En Uruguay, el senador Juan Sartori mediante proyecto de ley ante Parlamento, incorpora como garantía que los proveedores de IA deben informar a toda persona física sobre la interacción que se tenga, exceptuando las delimitaciones que la ley incorpore, como las que tengan por fin la detección, prevención, investigación o enjuiciamiento de infracciones penales, como también sobre el reconocimiento biométrico y de emociones, se deberá informar a la persona física expuesta a este sistema algorítmico, exceptuando por el uso y autorización por ley. Además, los usuarios que usen la IA con fi-
RkJQdWJsaXNoZXIy MjEzNzYz