Discriminação algorítmica, Inteligência artificial, Hipervigilância digital e tomada de decisão automatizada

Problemas jurídicos para controlar la discriminación algorítmica 86 Esto también provoca una ausencia de responsabilidad y obstaculiza la rendición de cuentas. De este modo, no resultará posible determinar quién ha sido el responsable cuando los algoritmos produzcan resultados discriminatorios o injustos. Es relevante saber que las causas de esta opacidad son de distinta índole, pues van desde la complejidad técnica del algoritmo hasta la falta de decisión de revelar tal opacidad pasando por exigencias jurídicas que impiden el acceso (Cerrillo i Martínez, 2019, p. 17). En principio, semeja evidente que la ciudadanía debe saber cómo se toman las decisiones que les afectan. La inteligencia artificial será utilizada, por ejemplo, para decidir subvenciones o becas, jerarquizar solicitudes, otorgar beneficios sociales, avanzar en investigaciones penales o para imponer multas administrativas. De esta forma, puede defenderse que las personas deben tener el derecho de saber los elementos que emplea ese sistema tecnológico para llegar a sus conclusiones. O, cuando menos, ello es una exigencia razonable o de equidad. Sin embargo, ello presenta en el fondo matices. En primer lugar, porque puede existir un interés legítimo para mantener cierto secretismo. En este sentido Kroll et al. aluden a un supuesto que es generalizable: un sistema que busca se ales en las declaraciones de impuestos altamente correlacionadas con la evasión fiscal basándose en declaraciones auditadas previamente, debe quedar fuera del conocimiento público para que no se sepa exactamente qué cosas en una declaración de impuestos se tratan como se ales reveladoras de fraude. Si ello no es así, los evasores fiscales pueden ajustar su comportamiento y las se ales pierden su valor predictivo para la autoridad fiscal que investiga el fraude o el blanqueo (Kroll et al., 2016, p. 23). De igual forma, la decisión algorítmica automatizada puede emplear datos confidenciales que no deben compartirse por ello mismo. También en el trabajo citada ahora se da otro ejemplo que podría incluirse en el interés legítimo en no transparentar. Nos referimos al caso de una empresa que analiza el riesgo de no poder pagar un crédito o una pérdida en una póliza de seguro, para lo cual emplea un sistema automatizado basado en una serie de variables. Este proceso no debería ser conocido por el consumidor para que no intentara controlar dichas variables, lo que podría hacer que el proceso de calificación no fuera útil para predecir

RkJQdWJsaXNoZXIy MjEzNzYz