Discriminação algorítmica, Inteligência artificial, Hipervigilância digital e tomada de decisão automatizada

Hipervigilância, hacking governamental, genocídio quântico e big data 24 por diversos policias em 2019, apesar da afronta à diversos direitos fundamentais. Oaplicativo retornava ao policial informações e dados obtidos sobre determinada pessoa. Alémdas falhas de tal tecnologia, outra questão problemática é permitir o acesso pela Clearview AI a todo o conteúdo das buscas e achados da polícia (e de empresas de segurança que contratemseus serviços). Agrava-se tal situação o fato de a empresa Clearview perder toda a lista de clientes e fotos, devido a umataque de hackers como anunciado em26.02.2020 (Uria, 2020). Em11.08.2020 foi proferidadecisãopeloTribunal deApelação de Londres considerando ilegal o uso de reconhecimento facial pela polícia do País de Gales, no caso Ed Bridges (Caso [2020] EWCA Civ 1058. Caso No: C1/2019/2670), com o apoio da organização “Liberty Human Rights”. Considerou-se que a tecnologia violava as leis de proteção da vida privada, além de ser discriminatória. Em 2017, a polícia do País de Gales implementou o uso de reconhecimento facial automatizado, com o sistema AFR Locate, que escaneia rostos em multidões e compara os dados coletados pelo sistema com listas de vigilância que contém fotos de indivíduos procurados pela polícia. Em 2019, Ed Bridges ajuizou ação contra a polícia alegando que teve seu rosto escaneado em sistema AFR Locate em 2017 e 2018, violando seus direitos, e embora tenha perdido o processo em primeiro grau, recorreu e o Tribunal de Apelações, anulou a decisão de inferior instância, reconhecendo que o uso de tecnologia de reconhecimento facial automatizado pela polícia é ilegal, já que não era suficientemente supervisionado, inexistindo critérios claros sobre quem pode ser colocado na lista de vigilância ou onde as câmeras de reconhecimento facial podemser instaladas, permitindo um grande poder de arbítrio por parte de cada policial. A Corte não traz a proibição do uso de reconhecimento facial no Reino Unido, no entanto limita o escopo de sua aplicação, prevendo que as agências que implementarem a tecnologia devem estar em conformidade com as leis de proteção aos direitos humanos.11 No Brasil, destaca-se ação de produção antecipada de provas, de 10.02.2020, ajuizada pela Defensoria Pública, por seus Núcleos Especializados de Defesa do Consumidor (NUDECON) e de Cidadania e Direitos Humanos (NCDH), Defensoria Pública da União, IDEC 11 Disponível em: https://internetlab.org.br/pt/semanario/20-08-2020/#12361. Acesso em: 20 out. 2024.

RkJQdWJsaXNoZXIy MjEzNzYz