Discriminação algorítmica, Inteligência artificial, Hipervigilância digital e tomada de decisão automatizada

Hipervigilância, hacking governamental, genocídio quântico e big data 26 Outro caso semelhante é o de Williams v. City of Detroit, também envolvendo a prisão de um homem negro inocente, objeto de acordo judicial alcançando diversos departamentos de polícia, restringindo o uso da tecnologia de reconhecimento facial, determinando que a polícia estaria obrigada a comprovar os resultados obtidos com a tecnologia com provas independentes e fiáveis antes de efetuar qualquer detenção. Os polícias também terão de receber formação sobre a tecnologia em especial acerca do potencial de “bias”, além de ser determinada a realização de auditoria de todos os casos desde 2017 em que houve tal utilização. No mesmo sentido o caso ACLU v. Clearview AI, alegando-se violação dos direitos de privacidade dos residentes de Illinois e, pois, afronta à Lei de Privacidade de Informações Biométricas de Illinois (BIPA), com acordo celebrado entre as partes, restringindo as práticas da Clearview em todos os Estados Unidos, proibindo a mesma de disponibilizar a sua base de dados de impressões faciais à maioria das empresas e outras entidades privadas, e de vender o acesso à sua base de dados a qualquer entidade no Illinois, incluindo a polícia estatal e local, durante cinco anos. Destaca-se, outrossim, ação judicial coletiva envolvendo o uso de reconhecimento facial pelo Facebook como parte da sua funcionalidade “Tag Suggestions”, ajuizada em prol dos usuários em Illinois. A ferramenta utilizada na marcação de fotografias teria violado a Lei da Privacidade da Informação Biométrica de Illinois14, já que não houve ciência nem consentimento dos usuários. Várias cidades, incluindo São Francisco, Berkeley e Oakland, na Califórnia, e Springfield e Cambridge, emMassachusetts adotaram legislação que proíbe o uso do reconhecimento facial pelo governo, e o estado da Califórnia bloqueou a utilização da tecnologia nas câmeras corporais utilizadas pela polícia.15 Tais ferramentas de IA utilizadas no sentido de vigilância a partir do big data possuem, pois, um potencial de “bias”, no sentido de uma retroalimentação, um “feedback loop” de preconceitos e dados tendenciosos, a exemplo do que ocorreria também na vigilância contra o terrorismo, por conter preconceitos estruturais, repassados 14 Disponível em: https://edelson.com/Facebook-Settlement. Acesso em: 20 out. 2024. 15 Disponível em: https://www.aclu.org/press-releases/aclu-sues-clearview-ai. Acesso em: 20 out. 2024.

RkJQdWJsaXNoZXIy MjEzNzYz