Discriminação algorítmica, Inteligência artificial, Hipervigilância digital e tomada de decisão automatizada

53 Pablo Rafael Banchio En el mundo actual las fronteras entre los Estados se ven continuamente superadas por la dinámica creada por el avance digital. Debemos asumir la dimension de un movimiento global que se una a los compromisos de la sociedad civil y de las instituciones internacionales para la protección de la dignidad absoluta de cada persona y brindar una respuesta jurídica adecuada en el mundo de las relaciones y las normas internacionales. Es un desafío difícil que nos plantea las preguntas sobre las que trabajaremos en los puntos que siguen: ¿como defender la dignidad de la persona en la era digital, cuando la vida y la identidad de la persona estan indisolublemente ligadas a los datos que la identifican y de los que nuevas formas de poder intentan apropiarse constantemente? ¿Como podemos formular principios y requisitos que deben ser respetados por todos en el mundo digital globalizado? 4. CASOS DE ESTUDIO 4.1 Análisis de Jurisprudencia relevante La jurisprudencia en torno a la discriminación algorítmica es aún incipiente, pero existen casos importantes que sientan precedentes ya que los tribunales de todo el mundo comienzan a lidiar con las complejas cuestiones que plantean estos sistemas. En Estados Unidos, el caso “State v. Loomis” (2016) es un ejemplodestacado. Eneste caso, el Tribunal SupremodeWisconsinsostuvo que el uso de un algoritmo de evaluación de riesgos para determinar la sentencia de un acusado no violaba sus derechos constitucionales, siempre y cuando el algoritmo no fuera el único factor considerado y se revelaran sus limitaciones. Permitió el uso de la herramienta de evaluación de riesgos COMPAS para decisiones de sentencia, a pesar de las preocupaciones sobre posibles sesgos raciales. El tribunal sostuvo que el uso de COMPAS no violaba los derechos del acusado siempre que no fuera el único factor considerado. En el caso “Robles vs. T-Mobile” (2019) el actor alegó que T-Mobile utilizó un algoritmo discriminatorio para negarle un plan de telefoníamóvil. El tribunal desestimó la demanda, pero reconoció que los algoritmos pueden ser susceptibles de revisión judicial en virtud de la Ley de Oportunidades Igualitarias de Empleo.

RkJQdWJsaXNoZXIy MjEzNzYz