331 Renato Sebastiani-León Mazza y María Eugenia-Zevallos Loyaga sionales de las mujeres a ser ama de casa, secretaria, recepcionista, peluquera, en comparación a los varones que se les perfilaba como profesor, locutor, entre otros (Contreras, 2024, p. 43). Además, también en la herramienta de Google Translate, sucedía este mismo escenario, donde los sistemas de IA fueron suministrados con sesgo de género (Caparrós. 2022, p. 8). Por otro lado, los sistemas de legales y políticas públicas de países europeos, han avanzado en el resguardo de este tipo de sistemas que llegan a discriminar de manera indirecta a las personas pertenecientes a un grupo determinado. Miranda, Ruiz y Pulido (2023, p. 38), han descrito que en Países Bajos se ha prohibido sistemas digitales que permitían la detección de fraudes, en razón de que estos sistemas de IA vulneraban la privacidad y generaban discriminación por motivo socio-económico. Este sistema era denominado “System Risk Indication” y empleado por el Ministerio de Asuntos Sociales y Empleo, se alimentaba de información privada de los usuarios, entre estos datos, era nivel educativo, deudas, subsidio de desempleo, entre otros, con el propósito de desarrollar perfiles de riesgo de defraudar a la administración pública, para lo cual el Tribunal de la Haya, resaltó que este tipo de sistemas de IA puede tener efectos no deseados, como estigmatizar y discriminar a la ciudadanía, por la ingente cantidad de información que recoge, y que, el Estado mantiene en secreto los parámetros que usa para identificar la posibilidad que tienen los ciudadanos de realizar fraude (Rechtbank Den Haag, 2020). En el Tribunal de Bolonia de Italia, se abordó como una aplicación de entrega de alimentos uso algoritmos sesgados en prejuicios sobre el nivel de confianza de los repartidores, generando discriminación, ya que, este tipo de IA no incorporaba entre sus parámetros la razón de la cancelación de los pedidos, guiándose de parámetros que no eran proporcionales y solo realizaba penalizaciones injustificadas a los repartidores de alimentos, la empresa debe indemnizar a los trabajadores por los da os (Tribunale Ordinario Di Bologna, 2020). Además, una noticia preocupante es el anuncio del cambio de privacidad de la empresa Meta Plataforms el cual informo que hará uso de las fotos de los usuarios con el propósito de alimentar su IA, esta noticia permite evidenciar la diferencia que existe en América Latina y Europa sobre la protección de las personas y de los grupos
RkJQdWJsaXNoZXIy MjEzNzYz