Discriminação algorítmica, Inteligência artificial, Hipervigilância digital e tomada de decisão automatizada

Casa Leiria DISCRIMINAÇÃO ALGORÍTMICA, INTELIGÊNCIA ARTIFICIAL, HIPERVIGILÂNCIA DIGITAL E TOMADA DE DECISÃO AUTOMATIZADA Haide Maria Hupffer Wilson Engelmann Gabriel Cemin Petry Juliane Altmann Berwig (organizadores)

Este livro é o resultado da pesquisa e das relações interinstitucionais produzidas no âmbito do seguinte projeto de investigação científica: INTELIGÊNCIA ARTIFICIAL E SOCIEDADE DE ALGORITMOS: REGULAÇÃO, RISCOS DISCRIMINATÓRIOS, GOVERNANÇA E RESPONSABILIDADES Fundação de Amparo à Pesquisa do Estado do Rio Grande do Sul - FAPERGS Processo número 61271.674.22274.26112021, Edital Fapergs 07/2021 Programa Pesquisador Gaúcho – PqG

DISCRIMINAÇÃO ALGORÍTMICA, INTELIGÊNCIA ARTIFICIAL, HIPERVIGILÂNCIA DIGITAL E TOMADA DE DECISÃO AUTOMATIZADA HAIDE MARIA HUPFFER WILSON ENGELMANN GABRIEL CEMIN PETRY JULIANE ALTMANN BERWIG (ORGANIZADORES) CASA LEIRIA SÃO LEOPOLDO/RS 2024

DISCRIMINAÇÃO ALGORÍTMICA, INTELIGÊNCIA ARTIFICIAL, HIPERVIGILÂNCIA DIGITAL E TOMADA DE DECISÃO AUTOMATIZADA Organizadores: Haide Maria Hupffer Wilson Engelmann Gabriel Cemin Petry Juliane Altmann Berwig DOI: https://doi.org/10.29327/5448881 Capa: baseada em imagem criada por IA Image Gen App. Os textos são de responsabilidade de seus autores. Qualquer parte desta publicação pode ser reproduzida, desde que citada a fonte. Catalogação na Publicação Bibliotecária: Carla Inês Costa dos Santos – CRB: 10/973 Casa Leiria Ana Carolina Einsfeld Mattos Ana Patrícia Sá Martins Antônia Sueli da Silva Gomes Temóteo Glícia Marili Azevedo de Medeiros Tinoco Haide Maria Hupffer Isabel Cristina Arendt Isabel Cristina Michelan de Azevedo José Ivo Follmann Luciana Paulo Gomes Luiz Felipe Barboza Lacerda Márcia Cristina Furtado Ecoten Rosangela Fritsch Tiago Luís Gil Conselho Editorial (UFRGS) (UEMA) (UERN) (UFRN) (Feevale) (Unisinos) (UFS) (Unisinos) (Unisinos) (UNICAP) (Unisinos) (Unisinos) (UnB) D611 Discriminação algorítmica, inteligência artificial, hipervigilância digital e tomada de decisão automatizada [recurso eletrônico]. / organização Haide Maria Hupffer…[et.al]. – São Leopoldo: Casa Leiria, 2024. Disponível em: <http://www.casaleiriaacervo.com.br/direito/ discriminacao/index.html> Conteúdo: textos em português, inglês e espanhol. ISBN 978-85-9509-140-5 1. Direito – Tecnologia. 2. Direitos humanos – Tecnologia. 3. Direito – Inteligência artificial – Impactos legais, éticos e sociais. 4.Direito – Tecnologia – Justiça, transparência e responsabilidade. I. Hupffer, Haide Maria (Org.). CDU 34:004

5 Inteligencia Artificial para un futuro sostenible: desafíos jurídicos y éticos SUMÁRIO 9 Apresentação Haide Maria Hupffer Wilson Engelmann Gabriel Cemin Petry Juliane Altmann Berwig 11 Hipervigilância, hacking governamental, genocídio quântico e big data Paola Cantarini 41 Discriminación algorítmica: un análisis jurídico de los desafíos y oportunidades en la era digital Pablo Rafael Banchio 69 Problemas jurídicos para controlar la discriminación algorítmica José Julio Fernández Rodríguez 117 Inteligência Artificial: um “artefato” discursivo Alejandro Knaesel Arrabal Wilson Engelmann 131 Do ciberespaço ao capitalismo de vigilância: uma nova configuração de poder arquitetada sobre dados Andressa Kerschner Haide Maria Hupffer 159 (Des)igualdade, viés e discriminação algorítmica: os direitos humanos entre equidade, imparcialidade e não-discriminação André Olivier 183 Discriminação algorítmica e LGPD: o papel do princípio da adequação e qualidade nos datasets de treinamento de Sistemas de IA Gabriel Cemin Petry João Sérgio dos Santos Soares Pereira Karin Regina Rick Rosa 209 A morte da privacidade na era da hipervigilância digital Francisco Soares Campelo Filho

Inteligencia Artificial para un futuro sostenible: desafíos jurídicos y éticos 6 233 Algoritmos como mecanismos de opressão à população LGBTQIAPN+ Ana Paola de Castro e Lins José Anchieta Oliveira Feitoza 251 Hyper Surveillance In The Criminal Justice System: Balancing Security And Civil Liberties In South Asian Countries (Afghanistan, Bangladesh, Bhutan, India, Maldives, Nepal, Pakistan, and Sri Lanka) Ratna Sisodiya Rachana Choudhary Surendra Singh Bhati 273 O devido processo digital na perspectiva processual e constitucional: para além da transparência algorítmica Alana Gabriela Engelmann Wilson Engelmann 291 A precaução emanada de recomendações internacionais para edificação de estratégias responsáveis no desenvolvimento e implementação de sistemas de inteligência artificial Rafael Cemin Petry Juliane Altmann Berwig 315 Sesgos en la era digital: desigualdad algorítmica y pueblos indígenas Renato Sebastiani-León Mazza María Eugenia-Zevallos Loyaga 345 Navegando no metaverso: benefícios, riscos, discriminação algorítmica e a necessidade de regulamentação para proteger o consumidor Tauane da Silva Brito Haide Maria Hupffer 373 Autoria e inteligência artificial Maiara Ubinski Bauer André Rafael Weyermüller 403 A plataformização da desinformação e o Projeto de Lei das Fake News Agnes Borges Kalil Haide Maria Hupffer Dailor dos Santos

7 Inteligencia Artificial para un futuro sostenible: desafíos jurídicos y éticos 433 Reconhecimento facial e política criminal: entre a segurança pública e a proteção aos direitos fundamentais Luan Tomaz Ferreira Daniel Kessler de Oliveira Diogo Machado de Carvalho 467 Inteligência artificial e a prova no processo penal: aproximações teóricas Adilson José Bressan Reginaldo Pereira 487 Índice remissivo

9 APRESENTAÇÃO Haide Maria Hupffer Wilson Engelmann Gabriel Cemin Petry Juliane Altmann Berwig Em um mundo em que algoritmos e sistemas de inteligência artificial (IA) se tornaram agentes decisivos em áreas cruciais da sociedade, desde a segurança pública até o setor financeiro, surge uma preocupação urgente com os impactos jurídicos, éticos e sociais da discriminação algorítmica e da hipervigilância digital. Com autores pesquisadores do tema, este livro oferece uma análise abrangente e multidisciplinar dos desafios e questões jurídicas associados a esses avanços tecnológicos. São explorados temas relacionados aos desafios e oportunidades trazidos pela discriminação na era digital, abordando questões como justiça, transparência e responsabilidade. A partir de análises aprofundadas sobre as estruturas legais existentes e lacunas que devem ser preenchidas para garantir uma era digital mais equitativa. Partindo-se, inicialmente, de um cenário internacional, é realizada uma reflexão sobre os valores fundamentais dos Direitos Humanos, bem como das recomendações internacionais a respeito do tema, abordando-se as problemáticas da discriminação algorítmica, ressaltando-se a importância de equidade e imparcialidade nas tomadas de decisões automatizadas e o papel dos direitos humanos em garantir sistemas mais justos, visando proteger toda a sociedade e em especial aos direitos dos consumidores. Com isso, aborda-se também o tema da necessidade de garantir o devido processo digital e a responsabilidade na tomada de decisões automatizadas, indo além da mera transparência algorítmica para uma responsabilidade efetiva. Com foco na legislação brasileira, um especial destaque para a Lei Geral de Proteção de Dados (LGPD), e como ela pode contribuir para reduzir a discriminação algorítmica, assegurando qualidade e adequação dos dados usados para treinar sistemas de IA. Em sentido paralelo, reflete-se sobre a autoria e os direitos de propriedade

intelectual na criação de obras geradas por IA investigando os limites e direitos legais em relação a esse novo cenário criativo. Na vertente discriminação apresenta-se um estudo sobre o uso do reconhecimento facial nas políticas de segurança pública, abordando as tensões entre segurança e os direitos fundamentais dos indivíduos. Assim, como as práticas de hacking estatal, revelam um cenário preocupante, onde o uso de dados para controle social pode levar a efeitos discriminatórios massivos, ilustrados pela concepção de “genocídio quântico”. Além disso, explora o uso de algoritmos que reproduzem ou amplificam preconceitos contra a população LGBTQIAPN+, expondo os riscos de marginalização e reforço de estigmas através de sistemas de IA. Buscando o viés da transparência, a IA é desmistificada como um conceito, revelando-se como um artefato discursivo, construído por interesses específicos e influências sociais. Deste modo, o livro traz em suas páginas questionamentos sobre os limites entre a IA e as narrativas em torno dela, levantando um debate sobre a responsabilidade e a transparência no uso dessa tecnologia. No mesmo sentido, examina o papel do capitalismo de vigilância e seu impacto no ciberespaço e a construção de poder baseada em dados, mostrando como o controle de informações pessoais alimenta o poder econômico e político, gerando novas formas de dominação e desigualdade. Com isso também, aborda-se o fenômeno da desinformação em plataformas digitais e analisa a relevância do Projeto de Lei das Fake News como resposta ao crescimento da fake News controlado pela IA. Dentre os temas, o livro se aprofunda ainda nas consequências da hipervigilância, discutindo como o controle e o monitoramento contínuos ameaçam a privacidade e como sociedades modernas lidam com o declínio desse direito fundamental. Este livro, portanto, é essencial para estudiosos, profissionais do direito e qualquer pessoa interessada nos impactos legais, éticos, sociais e legais da inteligência artificial. Ao explorar esses temas complexos, ele oferece uma visão crítica e fundamental sobre os novos desafios do Direito na era digital. Haide Maria Hupffer Wilson Engelmann Gabriel Cemin Petry Juliane Altmann Berwig

11 HIPERVIGILÂNCIA, HACKING GOVERNAMENTAL, GENOCÍDIO QUÂNTICO E BIG DATA Paola Cantarini1 1. INTRODUÇÃO A vigilância é uma dimensão-chave do mundo moderno, e hoje está intimamente relacionada com o big data: Projeto The big data Surveillance, Centro de Estudos de Vigilância do Canadá2, a exemplo de aplicações de IA tais como: reconhecimento facial, policiamento preditivo, em termos de uma vigilância que agora se caracteriza em massa, sob o slogan “coletar tudo”, a partir da análise e acesso a um enorme volume de dados pessoais. Além de podermos falar em uma vulnerabilidade geral, a partir da ubiquidade informacional e ausência de simetria em tal relação, tambémé cada vezmais frequente a utilização de aplicações de IA possibilitando a previsão e automatização em tempo real de resultados e modulamento de comportamentos, intenções e emoções humanos (neuromarketing, captologia, data brokers, affective computing), trazendo novas vulnerabilidades específicas, suscitando diversas problemáticas que vão muito além da proteção 1 Advogada, Professora universitária, PhD em Direito, em Filosofia, (PUC-SP) e em Filosofia do Direito (Unisalento); Pós-Doutora em Direito, Filosofia e Sociologia (PUCSP-TIDD, EGS- European Graduate School, Universidade de Coimbra/CES, USP – Filosofia e TGD, University of Reggio Calabria, e IEA/USP-Cátedra Oscar Sala). Pesquisadora do IEA/projeto UAI -coordenadora da equipe de governança; pesquisadora no Instituto Avançado de AI, pesquisadora do C4AI – Centro de Inteligência Artificial (USP), Presidente e Pesquisadora no EthikAI – ethics as a service. Membro de diversas Comissões da OABSP. Este texto faz parte das pesquisas desenvolvidas em sede de pós-doutorado na USP/RP em IA com bolsa Fapesp. 2 Projeto The big data Surveillance, Centro de Estudos de Vigilância do Canadá, disponível em https://www.surveillance-studies.ca. Acesso em: 20 out. 2024. DOI: https://doi.org/10.29327/5448881.1-1

Hipervigilância, hacking governamental, genocídio quântico e big data 12 de dados, da privacidade e de direitos individuais, envolvendo princípios democráticos modernos e os limites a tal vigilância em umEstado Democrático de Direito, já que pela falta de transparência, não há praticamente possibilidade de controle, prestação de contas e responsabilização em casos de abusos ou erros. Neste sentido, a adoção crescente da computação afetiva, affective computing, significando o reconhecimento e análise de afetos, emoções, sentimentos, por meio de sistemas de vigilância biométrica, envolvendo a intersecção de vários grupos de tecnologias, câmeras de vigilância, computação ubíqua, biometria e reconhecimento facial. Tais temáticas devem ser pensadas de forma crítica à luz dos novos colonialismos (de dados, de carbono, biocolonialismo), pois há uma maior fragilidade de países com passado histórico de discriminação quanto a parcelas da população, como afirma recente estudo da Rede de Observatórios de Seguranca3. O presente artigo visa, pois, trazer reflexões críticas, tendo por marco teórico as obras e o curso sobre vigilância ministrado pelo professor David Lyon em 2024, realizado na USP de Ribeirão Preto no CEADIN, coordenado por mim juntamente como professor Nuno Coelho. David Lyon é o investigador principal do Projeto de Vigilancia de big data, professor emerito de sociologia e direito na Queen’s University e ex-diretor do Centro de Vigilância e um dos maiores especialistas na temática. Visa-se trazer reflexões acerca de algumas de suas principais obras, emdiálogo comoutros autores que estudam o tema, envolvendo etapas anteriores a sociedade da vigilância digital, em especial acerca do pensamento de Foucault quanto aos seus estudos de sociedade da normalização, disciplina e regulamentação, e sua evolução nas obras de Deleuze e de Byung-Chun Han, com a perspectiva da sociedade de controle e do panóptico digital, analisando-se casos paradigmáticos concretos, a fim de se juntar uma análise teórica a uma prática, no sentido de uma phronesis significando para os gregos um conhecimento prático. 3 Disponível em https://observatorioseguranca.com.br/wordpress/wp-content/ uploads/2019/11/1relatoriorede.pdf?form=MG0AV3. Acesso em: 20 out. 2024.

13 Paola Cantarini 2. SOU VISTO, LOGO EXISTO – VIGILÂNCIA LÍQUIDA, EM MASSA E GENOCÍDIO QUÂNTICO A principal característica da atual inteligência de segurança é a extensa colaboração com empresas de tecnologia, as quais armazenam, tratam e utilizam nossas pegadas digitais, recorrendo ao big data, ampliando-se o leque anterior que focava mais na colaboração com empresas de telecomunicações, a exemplo da AT&T ajudando os EUA na vigilância, objeto de processo judicial movido pela Electronic Frontier Foundation (EFF), um grupo de defesa da privacidade e da liberdade de expressão. O caso judicial, contudo, foi arquivado com base na aprovação pelo Congresso da controvertida Lei de Vigilância da Inteligência Estrangeira (FISA) de 1978, concedendo imunidade retroativa à AT&T e permitindo a partir de 2008, com base em posteriores alterações, que o ProcuradorGeral pleiteie o arquivamento do caso, se o governo certificar secretamente ao tribunal que a vigilância não ocorreu, foi legal ou foi autorizada pelo presidente, quer seja legal ou ilegal. Combase em uma imunidade retroativa, para casos envolvendo responsabilidade penal, anulou-se a possibilidade de criminalização com base na lei que proibia as escutas sem mandado, sendo a lei substituída pela ordempresidencial, seja ela legal ou ilegal, ferindo-se os alicerces da separação de poderes, e do Estado de Direito. Tal imunidade torna-se a regra, sendo utilizada cada vez com maior frequência pelos governos para viabilizar suas atividades de vigilância emmassa. A imunidade retroativa revela a origemilegal da vigilância emmassa, atuando em uma zona de antidireito, borrando os limites entre a vigilância legal e ilegal, já que tais práticas situamse em uma espécie de “zona cinzenta”. Umdosexemplosdocrescimentodas tecnologiasdevigilância e da hegemonizaço de tal modelo de negocio com base no big data é o crescimento na oferta de serviços e softwares informacionais às instituições públicas de ensino de forma “gratuita” pelas maiores empresas de tecnologia de dados do mundo – conhecidas pelo acrônimo GAFAM (Google, Apple, Facebook, Amazon, Microsoft), tendo como contrapartida, todo o acesso aos dados pessoais de milhares de usuários, afetando o que se pode entender por soberania do Estado, já que as Big Techs estão quase todas nos EUA e em maioria crescente na China, em um relação obscura, sem

Hipervigilância, hacking governamental, genocídio quântico e big data 14 fornecimento de dados para se verificar os detalhes de tal operação, já que não ha dados oficialmente divulgados pelas empresas nem pelas instituiçes. Há uma assimetria de poder e de conhecimento, diante do evidente descompasso entre o que as empresas que operam com a utilização do sistema do capitalismo de vigilância sabem sobre nós, e o que sabemos do que fazem com nossos dados pessoais e ainda um aprofundamento de assimetrias norte-sul (Evangelista, 2018). Como apontam algumas pesquisas as inequalidades e o potencial de afronta a direitos humanos e fundamentais no ambito da IA são questõesmais problematicas empaises do Sul Global, havendo um maior impacto em locais onde ha uma negaço sistematica de direitos a comunidades com historico de opressao (Noble, 2018). Os acordos entre empresas e universidades brasileiras, em especial quanto ao Google Suite for Education e Microsoft Office 365 for Schools & Students, são reveladores de como tais relações são opacas, verdadeiras caixas pretas, faltando com o requisito fundamental para se falar em uma IA de confiança, qual seja, a transparência, em especial para aqueles que estão tendo seus dados pessoais utilizados. É o que aponta o relatorio da Electronic Frontier Foundation no que se refere aos EUA.4 Neste sentido, David Lyon, no curso realizado como iniciativa do CEADIN – Centro Avançado de Estudos, em Inovação e Direito da Universidade de São Paulo, Faculdade de Direito, campus Ribeirão Preto, aponta que na origem, na década de 1990 a vigilância era definida como a atenção sistemática e rotineira a pormenores pessoais com a intenção de influenciar, gerir, proteger ou orientar indivíduos, envolvendo, pois, uma observação direcionada, sistemática e rotineira, com diversos fins, entre eles, influência nos meiosdecomunicaçãosocial, as relações laboraiseocomportamento organizacional. Embora geralmente associada a entidades como a polícia, agências de segurança, controles fronteiriços e similares, a vigilância também pode exercer influência nas escolhas de vida, nas decisões de compra ou no trabalho, tendo seu conceito sido, posteriormente, alargado para incluir tanto a operação como a experiência da vigilância, envolvendo recolha, análise e utilização de dados pessoais para moldar escolhas ou gerir grupos e populações. 4 Disponível em: https://www.eff.org. Acesso em: 20 out. 2024.

15 Paola Cantarini Na época moderna, ou pós-moderna, a vigilância do século XXI, caracteriza-se, por sua vez, pela sua natureza omnipresente, envolvendo uma “cultura da vigilância”, uma nova dimensão da vigilância, que agora conta com nossa participação voluntária, como exercendo um fator fundamental, e tendo por principal ingrediente os dados pessoais. Os smartphones, por exemplo, tornaram-se os dispositivos de vigilância predominantes devido à sua adoção generalizada, sendo sua capacidade de análise de dados usada pelas grandes empresas, entidades públicas e privadas e organismos governamentais para monitorizar indivíduos, muitas vezes mesmo sem quaisquer indícios de serem suspeitos. Entre as diversas obras de David Lyon destaca-se “Vigilância Líquida” escrita emcoautoria comZygmunt Bauman (Bauman; Lyon, 2014), sendo fruto de sucessivas trocas de mensagens, diálogos e atividades realizadas de forma conjunta, como as participações na conferência bianual de 2008 da Rede de Estudos sobre Vigilância. Os A. apontam para a nova fase da vigilância líquida, móvel e flexível, infiltrando-se e espalhando-se por diversas áreas das nossas vidas, sendo umaspecto cada vezmais presente, assumindo características sempre emmutação, diferenciando-se da antiga forma de panóptico estudada por Foucault e por Deleuze. Segundo Foucault, ao estudar as sociedades disciplinares, da regulamentação e normalização o panóptico é um dos principais instrumentos do poder disciplinar, ummecanismo de vigilância, que possibilita ver e nunca ser visto, produzindo o efeito de um estado de visibilidade constante. A arquitetura é pensada para que a luz passe. Tudo deve ser iluminado, tudo deve poder ser visto! Na sociedade da transparência, nada deve ficar de fora. Por sua vez, para Deleuze, as sociedades de controle, tal como dispõe em seu Post-Scriptum sobre as Sociedades de Controle caracterizam-se por máquinas de informática e computadores, como uma mutação do capitalismo. Nas sociedades de controle o essencial não émais uma assinatura e nemumnúmero, mas uma cifra: a cifra é uma senha. Os indivíduos tornaram-se “dividuais”, divisíveis, e as massas tornaram-se amostras, dados, mercados ou “bancos”. A característica do panóptico digital, no entender de ByungChul Han ao falar da “sociedade da transparência” é permitir o alcance globalizado dos ventos digitais transforma o mundo em um

Hipervigilância, hacking governamental, genocídio quântico e big data 16 único panóptico: “não existe um fora do panóptico; ele se torna total, não existindo muralha que possa separar o interior do exterior”. Gigantes da rede como Google e Facebook, apresentam-se como espaços de liberdade, porém, também podem ser instrumentos da adoção de formas panópticas, a exemplo das revelações feitas por Edward Snowden, em 2013, sobre o projeto PRISM, cujo programa permitia à Agência Nacional de Segurança dos Estados Unidos (NSA) obter praticamente o que quisesse das empresas de internet. Ocorre como traço fundamental do panóptico digital o protocolamento total da vida, substituindo-se a confiança pelo controle, seguindose uma lógica da eficiência. A possibilidade de um protocolamento total da vida substitui a confiança inteiramente pelo controle. No lugar do Big Brother, entra o big data. Vive-se a ilusão da liberdade (autoexposição e autoexploração). Aqui todos observam e vigiam a todos. O mercado de vigilância no Estado democrático tem uma proximidade perigosa do Estado de vigilância digital. No lugar do biopoder surge o psicopoder, pois há condições de intervir nos processos psicológicos. É mais eficiente do que o biopoder pois vigia, controla e influencia o ser humano não de fora, mas a partir de dentro. Era da psicopolítica digital. Os grandes volumes de dados são, pois, um fator de mudança decisivo. Do onipresente código de barras permitindo a identificação de produtos segundo o tipo ou a fábrica, evoluímos para os chips de identificação por radiofrequência (RFID – Radio Frequency Identification), compreendendo em identificadores individuais para cada produto, e para os códigos de resposta rápida (QR, de Quick Response Code), conjuntos de símbolos colocados em produtos e que são escaneados por smartphones, e braceletes de silício comum QR permitindo a leitura de dados de contato e links de mídia social como um verdadeiro hyperlink humano. Acerca do novo sistema de vigilância em massa Snowden no seu livro Eterna vigilância, afirma que passamos de uma vigilância direcionada a indivíduos à vigilância em massa de populações inteiras, comdestaque para os bilhetes de identidadenacionais como um dos fatores centrais, conjugando-se tecnologia de alta precisão com biometria incorporada e chips RFID, com argumentos em torno de melhor exatidão, eficiência e rapidez, controle de imigração, medidas antiterrorismo, governo eletrônico, contudo, apesar de

17 Paola Cantarini tais pretensos benefícios há diversos perigos em potencial, com destaque para fracasso dos sistemas, custos financeiros imprevistos, ameaças acrescidas à segurança e uma imposição inaceitável aos cidadãos, sendo essencial uma avaliação independente e contínua dos riscos e uma revisão regular das práticas de gestão (Lyon; Bennett, 2008). Fala-se na existência de um verdadeiro ‘Cartel de Cartões’ envolvendo o Estado, empresas e normas técnicas, gerando grandes controvérsias em alguns países tais como Austrália, Reino Unido, Japão e França. Sou visto, logo existo. A frase reflete o desejo de ser visto em redes sociais, o que leva ao compartilhamento de dados pessoais de forma voluntária e até entusiástica, empregados pelo mercado para a personalização de anúncios com alto potencial de manipulação da escolha (pela sedução, não pela coerção) e, pois, à comoditização de nossas vidas e personas. Ao mesmo tempo haveria uma vigilância do consumidor, em um sentido positivo, voltada ao mercado de consumo, e em sentido negativo, acerca dos que não se conformam às expectativas, como aponta Oscar Gandy ao mencionar como a “discriminação racional” realizada por grandes empresas tem efeitos negativos, criando uma espiral negativa, onde os pobres se tornam mais pobres e aumenta-se a concentração de riquezas (Lyon, 2005). Relacionando-se à vigilância na área do big data destacamse a questão das inferências e o perfilamento, por meio de enorme quantidade de dados pessoais, o que é potencializado pelo papel questionável dos data brokers que vendem os dados pessoais, em atividades antiéticas e ilegais, já que não há um necessário consentimento real (informado, fragmentado, e mediante um novo consentimento a cada nova finalidade e mudança de empresa que está se beneficiando de tais dados), sendo tais dados utilizados em análise via aprendizado profundo, por meio de otimização quantitativa a fim de potencializar a manipulação comportamental e emocional, ou seja, são feitos anúncios personalizados a fim de maximizar a probabilidade de uma compra ou do tempo em uma rede social, sendo um fato fundamental na criação de desejos até então inexistentes. Como aponta Morozov (Morozov, 2018, p. 33 e ss) em 2012 o Facebook celebrou acordo com a empresa Datalogix permitindo

Hipervigilância, hacking governamental, genocídio quântico e big data 18 associar o que compramos no mercado aos anúncios que são disponibilizados no Facebook, da mesma forma, o Google possui o aplicativo Google Fiel permitindo a análise de lojas e restaurantes vizinhos ao usuário para indicação de ofertas. Por sua vez diversos casos interessantes são citados por Kai-Fu Lee no seu livro 2041: Como a inteligência artificial vai mudar sua vida nas próximas décadas (Lee, 2022), e embora seja um livro com histórias ficcionais, o mesmo traz informações, exemplos e cenários que já ocorrem na realidade, a exemplo da existência de fintechs (empresas de tecnologia financeira) com base em IA, como a Lemonade, nos Estados Unidos e a Waterdrop, na China, com o fim de venda de seguros por aplicativo ou a contratação de empréstimos por aplicativo, com aprovação instantânea. No capítulo genocídio quântico Kai-Fu Lee afirma que a tecnologia é inerentemente neutra, na linha do que Jose van Dijck chama de “dataísmo”, correspondendo à crença na “objetividade da quantificação”, e na linha do que se denomina de “solucionismo”, imaginando que a solução de todos os problemas sociais estão nas mãos dos dados, e na análise dos resultados, e não das causas, e que as “tecnologias disruptivas podem se tornar nosso fogo de Prometeu, ou caixa de Pandora, dependendo de como são usadas,” considerandocomoomaiorperigoadvindodaIAasarmasautônomas comandadas por IA. Na parte fictícia do livro é citado por sua vez o exemplo do seguro Ganhesha com a função objetiva do algoritmo de reduzir ao máximo o valor do seguro, e a cada comportamento dos segurados, por conseguinte, o valor do seguro aumenta ou reduz, além de estar vinculado a uma série de aplicativos, compartilhando dados dos usuários, englobando e-commerce, recomendações e cupons, investimentos, ShareChat (uma rede social popular indiana) e o fictício FateLeaf, um aplicativo de vidência. Uma das possíveis alternativas mencionadas pelo A. para balancear tal função objetiva voltada à maximização do lucro empresarial, seria a de ensinar a IA a ter funções objetivas complexas, como baixar o preço do seguro e manter a justiça, embora entenda ser possível tal exigência apenas via regulação, pois esbarraria no interesse comercial para atuar de forma voluntária, além de mencionar o importante papel da responsabilidade corporativa, a exemplo da ESG – governança ambiental, social e corporativa.

19 Paola Cantarini No livro Big data Surveillance and Security Intelligence – the Canadian case, de David Lyon e David Murakami Wood (Lyon; Murukami, 2020) é enfatizada a mudança da prática da vigilância comautilizaçãodo “bigdata” edenovosmétodosdeanálisededados para se verificar possíveis riscos à segurança nacional, destacandose a parceria “Cinco Olhos” envolvendo Austrália, Canadá, Nova Zelândia, Reino Unido e Estados Unidos, com a interligação entre “inteligência de segurança” e “vigilância”, incluindo atualmente o monitoramento da internet e, especialmente, das redes sociais, vinculados, pois, a análise de dados pessoais. Expande-se a noção de segurança para abranger uma série de novos domínios, permitindo-se a utilização de tortura e interrogatório como meios extraordinários, a exemplo do que aconteceu com o canadense Maher Arar após o evento de 11 de setembro de 2001, considerado como suspeito. A ligação de atividades em prol da segurança nacional com o big data e a vigilância agora em termos de “vigilância emmassa” são corroboradas pelas denúncias de agentes de segurança americanos comoWilliamBinney, Thomas Drake, MarkKlein e Edward Snowden, inclusive com a utilização de metadados a partir do estudo de mais de 500 documentos divulgados por Snowden que mostram como os metadados podem ser utilizados para construir perfis detalhados da vida das pessoas vigiadas (Lyon; Murukami, 2020). Houve diversas tentativas no Canadá de promulgação de leis conferindo mais poderes à polícia e aos serviços secretos de segurança, a exemplo de projetos de lei em 2009 (projeto de lei C-46, “Investigative Powers for the 21st Century Act” e projeto de lei C-47, “Technical Assistance for Law Enforcement in the 21st Century Act”), permitindo o acesso sem mandado a dados das comunicações via Internet. Em 2011 com o projeto de lei C-30 (Lei de Proteção das Crianças contra Predadores da Internet) e em 2013 com o projeto de lei C-13 (Protecting Canadians from Online Crime Act), sendo aprovada uma versão revista (SC 2014, c 31). Por sua vez em 2019 é apresentado o projeto de lei C-51 conferindo as autoridades de inteligência mais poderes a nível interno e externo e uma imunidade mais explícita em relação à responsabilidade pela utilização desses poderes, resultando no projeto de lei C-59 (Lei da Segurança Nacional, 2017) aprovado (Canada, Bill C-51, An Act to

Hipervigilância, hacking governamental, genocídio quântico e big data 20 amend the Criminal Code and the Department of Justice Act and to make consequential amendments to another Act, 2017).5 Os algoritmos fazem parte da infraestrutura essencial da vigilância de segurança, a exemplo do Financial Transactions and Reports Analysis Centre do Canadá (FINTRAC) utilizando alertas baseados em algoritmos para detectar atividades suspeitas e controlar os movimentos de suspeitos. Ocorre a intercepção em massa das comunicações domésticas dos canadenses através da Internet – tal como também ocorreria no caso da NSA – Agência de Segurança Nacional dos EUA e do Government Communications Head-quarters (GCHQ) no Reino Unido – sendo uma atividade questionável quanto à sua legalidade, e pior, não sujeita a controle. Contudo, apesar de possuir alguma fundamentação legal, amparada no ecossistema mencionado, faltam medidas de transparência, envolvendo, por exemplo, a demonstração de que foram adotadas medidas de segurança quanto aos dados pessoais utilizados, a fimde não haver afrontas a Carta Canadiana dos Direitos e Liberdades, bem como aos tratados internacionais de direitos humanos, e a comprovação de que houve o respeito ao denominado “teste constitucional de quatro partes”, demonstrando que as medidas de sigilo ou outra medida de segurança adotadas sejam mínimas, proporcionais, necessárias e eficazes6. Faltaminformações acerca de qual o conteúdo interceptado, quais tipos de metadados são armazenados, onde os dados são armazenados e durante quanto tempo, forma de descarte de dados, quais entidades organizacionais possuem acesso aos dados e para que fins, se há anonimização dos dados ou foram adotados procedimentos de “minimização” e de segurança7. A tentativa de legalizar a atividade de vigilância estatal em massa não é uma particularidade apenas do Canadá, seguindo-se uma tendência ou onda mundial de legalização, a exemplo das “Leis do Big Brother” na França (medidas antiterroristas promulgadas 5 CANADA. Bill C-51, An Act to Amend the Criminal Code and the Department of Justice Act and to Make Consequential Amendments to Another Act. 2017. Disponível em: https://www.justice.gc.ca/eng/csj-sjc/pl/cuol-mgnl/c51.html?form=MG0AV3. Acesso em: 20 out. 2024. 6 R v Oakes, [1986] 1 SCR 103, http://www.canlii.org/en/ca/scc/doc/1986/1986 canlii46/1986canlii46.html. 7 Disponível em: https://necessaryandproportionate.org/files/2016/03/04/en_ principles_2014.pdf. Acesso em: 20 out. 2024.

21 Paola Cantarini após 2015) e das leis japonesas de vigilância – a Lei do Sigilo/Segredo, a Lei das Escutas Telefônicas de 2016, ampliando as categorias de crimes sujeitos a investigações de escuta telefônica pela polícia, legitimando os meios de escuta em investigações criminais e autorizando, em suma, que a polícia escute potencialmente as conversas de todos, a fim de identificar quem está falando sobre crimes; e a Lei da Conspiração de 2017, criando um novo artifício para que a polícia monitore as conversas de todos comnítida afronta à privacidade e à liberdade de expressão (Secrecy Act, Wiretapping Act, Conspiracy Act), levando ao questionamento de que medidas de exceção estão de fato se tornando a regra, o que já fora vislumbrado anteriormente por Nietzsche, Walter Benjamin e explorado mais recentemente por Giorgio Agamben, e de certa forma por Shoshana Zuboff na obra acerca do capitalismo de vigilância, falando em um “estado de exceção do Google”, na linha também do que afirma Morozov quando afirma para a governamentalidade algorítmica, a exemplo dos inúmeros experimentos sociais praticados pelo Facebook, como um verdadeiro laboratório real, além da defesa da “soberania da informação” pela Rússia, China e Irã. Destaca-se ainda neste sentido a Convenção do Conselho da Europa sobre Crimes Cibernéticos, de 2001, como um documento internacional em prol da legislação de vigilância durante a Guerra ao Terror, sendo assinada por quarenta e três países, incluindo os estados não-membros do Canadá, Japão, África do Sul e Estados Unidos; tal convenção exige que as nações participantes editem legislaçãoquefaciliteainvestigaçãoeaacusaçãodecrimescometidos pela Internet, prevendo ainda a concessão ampla de acesso legal ao tráfego de dados pelas autoridades de aplicação da lei. Alémdas jásupramencionadasoutrasdiversas leisnoCanadá podem ser alegadas para embasar a autorização das atividades de vigilância eletrônica, dificultando a interpretação já que se trata de verdadeiro emaranhado legal de alta complexidade, podendo minar ou pelo menos dificultar a exigência de transparência e de contestabilidade, além de ser questionável sua constitucionalidade, se pensarmos em termos de ponderação de direitos e de proporcionalidade, podendo ser destacadas: Security of Information Act (4 e 6) – Lei de Segurança da Informação – prevendo infrações de manuseamento de documentos e por entrada não autorizada

Hipervigilância, hacking governamental, genocídio quântico e big data 22 em áreas classificadas, Criminal Code – prevendo poderes de investigação utilizados nas investigações de segurança nacional, incluindo ordens de produção (seção 487.014), dispositivos de localização (seção 492.1), escutas telefônicas (seção 186),18 e/ou mandados de busca (seção 487), CSIS Act (21 e 21.1), e autoridades que podem investigar ameaças aos sistemas canadenses e/ou o alegado envolvimento de potências estrangeiras, Customs Act (seção 99.2) – prevendo amplos poderes de inspeção e/ou apreensão de qualquer pessoa que saia ou entre no Canadá, Canada Evidence Act – (seção 38), com disposições de sigilo dos registos judiciais utilizados para cobrir provas sensíveis reveladas, bem como para ocultar técnicas de vigilância específicas, National Defence Act – (seção 273.3), permitindo ao CSE prestar assistência especializada emmatéria de acesso legal especializado (SLA) a outros organismos federais. Ainda podem ser citadas a PIPEDA – com previsão de que empresas como as companhias aéreas ou de telecomunicações que detêm informações relevantes para uma investigação relacionada com a defesa ou a segurança nacional do Canadá são dotados de poderes discricionários específicos para divulgar informações às autoridades, o Privacy Act, autorizando departamentos governamentais a divulgar informações a investigadores, quer por ordem judicial, quer para aplicação de qualquer lei do Parlamento, e o Telecommunications Act – permitindo às agências especificar, através de regulamentos ou normas, a manutenção de capacidades de vigilância específicas nas redes. 3. RECONHECIMENTO FACIAL, HACKING GOVERNAMENTAL E FEEDBACK LOOP DE PRECONCEITOS, RACISMO E DADOS TENDENCIOSOS Duas aplicações específicas de IA relacionam-se intimamente comatemáticadavigilância,oreconhecimentofacialeopoliciamento preditivo, havendo diversas críticas por parte da doutrina e relatórios de institutos especializados, em razão do grande número de vieses, ou seja, falsos positivos, envolvendo mulheres, negros, asiáticos, nativos americanos, índios americanos, índios do Alasca e ilhéus do Pacífico, como aponta o Relatório “Interagency Report 8280” do National Institute of Standards and Technology (NIST, 2019).

23 Paola Cantarini Segundo o Relatório a tecnologia de reconhecimento facial no caso de 189 algoritmos apresentou viés racial em relação às mulheres de cor, além de não conseguirem, de modo geral, identificar corretamente uma pessoa que usava máscara quase 50% do tempo8. Entre as principais críticas ao reconhecimento facial podem ser apontadas, de forma geral, a ausência ou escassez de acesso à informação sobre os resultados e eficiência decorrente do uso da tecnologia, falta de transparência sobre a aquisição e implementação dos sistemas, bem como sobre seus protocolos de uso e métodos de coleta dos dados. Um dos pontos centrais envolvendo tal tecnologia é a questão do risco de vazamento de dados biométricos, altamente sensíveis, e que não são possíveis de serem alterados após um acesso não autorizado, ao contrário de senhas, PINs ou endereços de e-mail, agravando as consequências de um potencial vazamento. Já há alguns exemplos noticiados de vulnerabilidade e acesso não autorizado de dados biométricos, como no caso de pesquisa de 2019 apontando para a vulnerabilidade em um sistema de segurança biométrico denominado Biostar 2, gerido pela Suprema, empresa sul-coreana, permitindo o acesso não autorizado de informações e dados de 1 milhão de pessoas9. No mesmo sentido pesquisadores holandeses de segurança cibernética em relatório de 2019 apontaram falhas em sistema permitindo o acesso a base de dados de reconhecimento facial da empresa chinesa SenseNets, responsável pela criação de sistemas de software de segurança baseados em IA para reconhecimento facial, análise de multidões e verificações, afetando 2,5 milhões de pessoas.10 Em 18 de janeiro de 2020, o jornal The New York Times publicou matéria da jornalista Kashmir Hill, sobre um aplicativo de reconhecimento facial criado pela empresa Clearview AI, utilizandose de um banco de dados de cerca de 3 bilhões de fotos públicas capturadas ao redor da internet e das redes sociais, sendo utilizada 8 Disponível em: https://learn.g2.com/ethics-of-facial-recognition. Acesso em: 20 out. 2024. 9 Disponível em: https://www.theguardian.com/technology/2019/aug/14/major- -breach-found-in-biometrics-system-used-by-banks-uk-police-and-defence- -firms. Acesso em: 20 out. 2024. 10 Disponível em: https://www.forbes.com/sites/kateoflahertyuk/2019/02/18/ china-facial-recognition-database-leak-sparks-fears-over-mass-data-collec tion/#788f83aafb40. Acesso em: 20 out. 2024.

Hipervigilância, hacking governamental, genocídio quântico e big data 24 por diversos policias em 2019, apesar da afronta à diversos direitos fundamentais. Oaplicativo retornava ao policial informações e dados obtidos sobre determinada pessoa. Alémdas falhas de tal tecnologia, outra questão problemática é permitir o acesso pela Clearview AI a todo o conteúdo das buscas e achados da polícia (e de empresas de segurança que contratemseus serviços). Agrava-se tal situação o fato de a empresa Clearview perder toda a lista de clientes e fotos, devido a umataque de hackers como anunciado em26.02.2020 (Uria, 2020). Em11.08.2020 foi proferidadecisãopeloTribunal deApelação de Londres considerando ilegal o uso de reconhecimento facial pela polícia do País de Gales, no caso Ed Bridges (Caso [2020] EWCA Civ 1058. Caso No: C1/2019/2670), com o apoio da organização “Liberty Human Rights”. Considerou-se que a tecnologia violava as leis de proteção da vida privada, além de ser discriminatória. Em 2017, a polícia do País de Gales implementou o uso de reconhecimento facial automatizado, com o sistema AFR Locate, que escaneia rostos em multidões e compara os dados coletados pelo sistema com listas de vigilância que contém fotos de indivíduos procurados pela polícia. Em 2019, Ed Bridges ajuizou ação contra a polícia alegando que teve seu rosto escaneado em sistema AFR Locate em 2017 e 2018, violando seus direitos, e embora tenha perdido o processo em primeiro grau, recorreu e o Tribunal de Apelações, anulou a decisão de inferior instância, reconhecendo que o uso de tecnologia de reconhecimento facial automatizado pela polícia é ilegal, já que não era suficientemente supervisionado, inexistindo critérios claros sobre quem pode ser colocado na lista de vigilância ou onde as câmeras de reconhecimento facial podemser instaladas, permitindo um grande poder de arbítrio por parte de cada policial. A Corte não traz a proibição do uso de reconhecimento facial no Reino Unido, no entanto limita o escopo de sua aplicação, prevendo que as agências que implementarem a tecnologia devem estar em conformidade com as leis de proteção aos direitos humanos.11 No Brasil, destaca-se ação de produção antecipada de provas, de 10.02.2020, ajuizada pela Defensoria Pública, por seus Núcleos Especializados de Defesa do Consumidor (NUDECON) e de Cidadania e Direitos Humanos (NCDH), Defensoria Pública da União, IDEC 11 Disponível em: https://internetlab.org.br/pt/semanario/20-08-2020/#12361. Acesso em: 20 out. 2024.

25 Paola Cantarini (Instituto Brasileiro de Defesa do Consumidor), Intervozes Coletivo Brasil de Comunicação Social, e Artigo 19 Brasil, em face da empresa Via Quatro, concessionária da Linha 4 do metrô da capital paulista proibindo o uso de reconhecimento facial pela empresa ViaQuatro, apontando a afronta a diversos direitos constitucionais (Hill, 2020). Em decisão de caráter liminar, a Justiça de São Paulo determinou que a empresa Via Quatro, cesse a coleta de dados dos usuários sob risco de multa diária em caso de descumprimento. 12 Destaca-se ainda ação judicial em razão do uso indevido do reconhecimento facial pela loja Hering Experience do Morumbi Shopping em São Paulo (processo nº 08012.001387/2019-11), ajuizada pelo Departamento de Proteção e Defesa do Consumidor (DPDC/Representante), Secretaria Nacional do Consumidor (Senacon), Ministério da Justiça e Segurança Pública (MJSP) combase na ausência de consentimento. Sobre o mesmo caso há condenação da empresa pela Senacon (Secretaria Nacional do Consumidor) em processo administrativo em razão da ausência de consentimento dos consumidores, e ausência de informação clara e adequada, considerando-se tal prática abusiva nos termos do Código de Defesa do Consumidor, entendendo-se que houve aproveitamento da vulnerabilidadedoconsumidoreviolaçãodedireitosdepersonalidade. Por sua vez, diversos casos judiciais pelo uso abusivo do reconhecimento facial foram ajuizados nos EUA com destaque para o caso Parks xMcCormac, de 29.01.2024, envolvendo a prisão injusta de Parks, homem negro, a partir da utilização de tal tecnologia pela polícia de Woodbridge; a polícia enviou uma imagem desfocada e sombreada da fotografia da carta de condução do suspeito de crime de furto a um investigador, que utilizando-se de sistema de reconhecimento facial informou aos agentes da polícia de queNijeer Parks era um “possível alvo”, sem fundamentação em quaisquer outros documentos ou provas, dando ensejo à prisão do mesmo. De acordo com a pesquisa a maioria dos casos de falsos positivos envolveram a detenção de uma pessoa negra13. 12 Processo n. 1006616-14.2020.8.26.0053 – 1ª. Vara de Fazenda Pública – SP. Disponível em: https://www.migalhas.com.br/quentes/360681/acao-questiona-uso- de-reconhecimento-facial-no-metro-de-sp?form=MG0AV3. Acesso em: 20 out. 2024. 13 Disponível em: https://www.aclu.org/cases/parks-v-mccormac; In: re Facebook Biometric Information Privacy Litigation (15-cv-03747-JD) (N.D. Cal.). Acesso em: 20 out. 2024.

Hipervigilância, hacking governamental, genocídio quântico e big data 26 Outro caso semelhante é o de Williams v. City of Detroit, também envolvendo a prisão de um homem negro inocente, objeto de acordo judicial alcançando diversos departamentos de polícia, restringindo o uso da tecnologia de reconhecimento facial, determinando que a polícia estaria obrigada a comprovar os resultados obtidos com a tecnologia com provas independentes e fiáveis antes de efetuar qualquer detenção. Os polícias também terão de receber formação sobre a tecnologia em especial acerca do potencial de “bias”, além de ser determinada a realização de auditoria de todos os casos desde 2017 em que houve tal utilização. No mesmo sentido o caso ACLU v. Clearview AI, alegando-se violação dos direitos de privacidade dos residentes de Illinois e, pois, afronta à Lei de Privacidade de Informações Biométricas de Illinois (BIPA), com acordo celebrado entre as partes, restringindo as práticas da Clearview em todos os Estados Unidos, proibindo a mesma de disponibilizar a sua base de dados de impressões faciais à maioria das empresas e outras entidades privadas, e de vender o acesso à sua base de dados a qualquer entidade no Illinois, incluindo a polícia estatal e local, durante cinco anos. Destaca-se, outrossim, ação judicial coletiva envolvendo o uso de reconhecimento facial pelo Facebook como parte da sua funcionalidade “Tag Suggestions”, ajuizada em prol dos usuários em Illinois. A ferramenta utilizada na marcação de fotografias teria violado a Lei da Privacidade da Informação Biométrica de Illinois14, já que não houve ciência nem consentimento dos usuários. Várias cidades, incluindo São Francisco, Berkeley e Oakland, na Califórnia, e Springfield e Cambridge, emMassachusetts adotaram legislação que proíbe o uso do reconhecimento facial pelo governo, e o estado da Califórnia bloqueou a utilização da tecnologia nas câmeras corporais utilizadas pela polícia.15 Tais ferramentas de IA utilizadas no sentido de vigilância a partir do big data possuem, pois, um potencial de “bias”, no sentido de uma retroalimentação, um “feedback loop” de preconceitos e dados tendenciosos, a exemplo do que ocorreria também na vigilância contra o terrorismo, por conter preconceitos estruturais, repassados 14 Disponível em: https://edelson.com/Facebook-Settlement. Acesso em: 20 out. 2024. 15 Disponível em: https://www.aclu.org/press-releases/aclu-sues-clearview-ai. Acesso em: 20 out. 2024.

27 Paola Cantarini para banco de dados e reproduzidos via algoritmos, que reproduzem o viés dos bancos de dados (Lyon; Murakami, 2020). Quanto ao reconhecimento facial os casos de uso pelo Poder Público no Brasil relacionam-se a seis finalidades, quais sejam, segurança publica, transporte urbano, escolas, sistemas para gestão de benefícios sociais, controle alfandegário e validação de identidade, podendo dar ensejo tanto a falsos positivos como negativos, ou seja, a abordagens e apreensões de forma injusta ou a nao identificaço, negando-se benefícios de assistência social por exemplo. Outras problemáticas relacionam-se a ausência de mecanismos de prestação de contas aos cidadãos sobre os seus direitos e de medidas preventivas e mitigadoras de danos e de segurança da informação, alémda ausência de avaliações sobre a proporcionalidade dos impactos negativos em face das externalidades positivas, geralmente associadas à maior efetividade, a qual, contudo, é questionável como aponta relatório da LAPIN de 2021, afirmando que há falta de transparência diante da ausência de dados estatísticos sistematizados, consolidados ou publicizados sobre o tratamento de dados realizado por meio de tecnologias de reconhecimento facial pela Administração Pública, não havendo provas, pois de que tais tecnologias ensejariam maior eficiência das atividades do setor público, ou seja, de acordo com os dados divulgados, “a narrativa da eficiência da tecnologia parece não se confirmar estatisticamente”.16 A título de exemplo, no carnaval de Salvador de 2020, das 11,7 milhões de pessoas entre adultos e crianças que estiveram presentes, o uso das mais de 80 câmeras com tal tecnologia deram ensejo à detecção de 42 foragidos. No Rio de Janeiro, houve com tal utilização o cumprimento de 63 mandados de prisão durante a Copa América de 2019, computando-se dois casos de falsos positivos. Verifica-se, pois que há uma possível desproporcionalidade, se observarmos o número de captura de 42 foragidos, e o acesso a dados pessoais biométricos de 11,7 milhões de pessoas, ou seja, parece que o benefício não seria proporcional ao potencial de danos a direitos fundamentais de milhões de pessoas que sem serem suspeitas foram submetidas a vigilância massiva do Estado. 16 Disponível em: https://lapin.org.br/2021/07/07/vigilancia-automatizada-uso- de-reconhecimento-facial-pela-administracao-publica-no-brasil/. Acesso em: 20 out. 2024.

RkJQdWJsaXNoZXIy MjEzNzYz