Haide Maria Hupffer Wilson Engelmann Júlio César da Rosa Herbstrith (organizadores) INTELIGÊNCIA ARTIFICIAL E ALGORITMOS DESAFIOS ÉTICOS, GOVERNANÇA E RESPONSABILIDADES Casa Leiria
Este livro é o resultado da pesquisa e das relações interinstitucionais produzidas no âmbito do seguinte projeto de investigação científica: INTELIGÊNCIA ARTIFICIAL E SOCIEDADE DE ALGORITMOS: REGULAÇÃO, RISCOS DISCRIMINATÓRIOS, GOVERNANÇA E RESPONSABILIDADES Fundação de Amparo à Pesquisa do Estado do Rio Grande do Sul (FAPERGS) Proc. n.º 61271.674.22274.26112021 Edital Fapergs 07/2021 – Programa Pesquisador Gaúcho (PqG)
HAIDE MARIA HUPFFER WILSON ENGELMANN JÚLIO CÉSAR DA ROSA HERBSTRITH (ORGANIZADORES) CASA LEIRIA SÃO LEOPOLDO/RS 2025 INTELIGÊNCIA ARTIFICIAL E ALGORITMOS DESAFIOS ÉTICOS, GOVERNANÇA E RESPONSABILIDADES
INTELIGÊNCIA ARTIFICIAL E ALGORITMOS: DESAFIOS ÉTICOS, GOVERNANÇA E RESPONSABILIDADES Organizadores: Haide Maria Hupffer Wilson Engelmann Júlio César da Rosa Herbstrith DOI: https://doi.org/10.29327/5734110 Imagem da capa: imagem gerada por IA usando Microsoft Copilot, com o prompt "IA e algoritmos". Os textos são de responsabilidade de seus autores. Qualquer parte desta publicação pode ser reproduzida, desde que citada a fonte. Catalogação na Publicação Bibliotecária: Carla Inês Costa dos Santos – CRB: 10/973 Casa Leiria Ana Carolina Einsfeld Mattos Ana Patrícia Sá Martins Antônia Sueli da Silva Gomes Temóteo Glícia Marili Azevedo de Medeiros Tinoco Haide Maria Hupffer Isabel Cristina Arendt Isabel Cristina Michelan de Azevedo José Ivo Follmann Luciana Paulo Gomes Luiz Felipe Barboza Lacerda Márcia Cristina Furtado Ecoten Rosangela Fritsch Tiago Luís Gil Conselho Editorial (UFRGS) (UEMA) (UERN) (UFRN) (Feevale) (Unisinos) (UFS) (Unisinos) (Unisinos) (UNICAP) (Unisinos) (Unisinos) (UnB) I61 Inteligência artificial e algoritmos : desafios éticos, governança e responsabilidades [recurso eletrônico] / organização Haide Maria Hupffer, Wilson Engellmann, Júlio César da Rosa Herbstrith – São Leopoldo: Casa Leiria, 2025. Disponível em: <http://www.casaleiriaacervo.com.br/direito/ IAalgoritmos/index.html> ISBN 978-85-9509-171-9 1. Direito – Tecnologia. 2. Direito – Inteligência artificial.3. Direito – Inteligência artificial – Ética. 4. Direito – Inteligência artificial – Governança I. Hupffer, Haide Maria (Org.). II. Engellmann, Wilson (Org.). III. Herbstrith, Júlio César da Rosa (Org.). CDU 34:004
5 Inteligência artificial e algoritmos: desafios éticos, governança e responsabilidades SUMÁRIO 7 Prefácio Júlio César da Rosa Herbstrith 13 Agentes de inteligência artificial: a causa do Efeito Bruxelas no IA ACT? Wilson Engelmann Camila Machado Dias 35 Arquivo e memória do dia 8 de janeiro de 2023: do registro a documento Ana Carolina Roman Rodrigues Cássia Hosni Renata Perim Lopes 53 Inteligência Artificial na justiça criminal: entre a inovação tecnológica e os desafios éticos e jurídicos na proteção dos Direitos Humanos Haide Maria Hupffer Renata Fröhlich 85 Convergencia ética y derechos digitales: fundamentos metodológicos para la gobernanza tecnológica Pablo Rafael Banchio 105 A armadilha ética do “impulso humano” (a)crítico na era da inteligência artificial: reflexões éticas e desafios no pós-humanismo Mateus de Oliveira Fornasier Fernanda Viero da Silva Marco Antonio Compassi Brun 133 Liberdade de expressão e governança de riscos sistêmicos: parâmetros objetivos para o controle de conteúdos nocivos no Brasil Gustavo Borges Felipe Pinheiro Prestes
Inteligência artificial e algoritmos: desafios éticos, governança e responsabilidades 6 165 Impactos cognitivos do uso de IA: implicações na formação acadêmica e desenvolvimento integral do ser humano Cláudio Felipe Kolling da Rocha 187 Responsabilidade civil pelos danos ocasionados pelo uso de inteligência artificial: uma crítica à redação atual do Projeto de Lei n.º 2.338/2023 Caitlin Mulholland 205 O dano moral coletivo na ameaça da inteligência artificial generativa aos direitos extrapatrimoniais do autor e à dignidade da classe artística Luiz Gonzaga Silva Adolfo Cristina Baum da Silva 227 Direito fundamental à privacidade versus imediatismo do consumo: (in)segurança e privacidade dos usuários no ambiente de consumo online Jean Pedro Horszczaruk Cleide Calgaro 249 Ummodelo de anonimização aplicado a prontuários eletrônicos Diego Pinheiro da Silva Blanda Helena de Mello Marta Rosecler Bez Sandro José Rigo 271 Geoprocessamento e inteligência artificial: ferramentas estratégicas para o planejamento territorial Andressa Bassani Ana Paula da Cruz Santos Roberta Plangg Riegel 289 Inteligência artificial, redes sociais e liberdade de consumo: desafios éticos e a urgência de regulação das plataformas digitais de redes sociais Mateus Panizzon Patrícia Montemezzo 313 Índice remissivo
7 PREFÁCIO Júlio César da Rosa Herbstrith1 Este prefácio não foi construído com o auxílio de Inteligência Artificial. Será? A frase que abre este prefácio em tom de advertência, seguida de um questionamento mais soa como uma perfumaria retórica de quem tem que escrever sobre algo novo, ao menos, que parece novo. Um recurso estético que visa apanhar a atenção do leitor ou da leitora para gerar engajamento, para criar um tom de curiosidade sobre o que vem pela frente, por ora, o prefácio de um livro contendo treze textos sobre o assunto do momento – Inteligência Artificial. Cada vez mais se torna uma obviedade que os textos, sejam eles quais forem, são escritos com o auxílio de Inteligência Artificial – IA. Para quem não acredita, basta saber que qualquer busca por palavras em seus significados ou sinônimos, a procura ativa por artigos acadêmicos que sustentam o estado da arte a respeito de um determinado tema, ou mesmo uma ideia que surja hoje, de forma aparentemente espontânea ou original terá o auxílio ou a organização influenciada pelos algoritmos e pelos mais variados modelos de IA. Este texto foi sim construído com o auxílio de IA, pois os rastros que o autor deixou na rede ao buscar informações sobre o escritor e neurocientista Miguel Nicolelis levaram-no a conhecer, escolher, comprar, aguardar e receber o livro de Nicolelis – “O Verdadeiro Criador de Tudo: como o cérebro humano esculpiu o Universo como nós o conhecemos”. Por outro lado, este texto não foi criado por uma 1 Doutor em História, Teoria e Crítica da Arte pelo Programa de Pós-Graduação em Artes Visuais do Instituto de Artes da UFRGS. Mestre em História, Teoria e Crítica da Arte pelo Programa de Pós-Graduação em Artes Visuais do Instituto de Artes da UFRGS. Professor nos cursos de Graduação e Pós-Graduação da Universidade Feevale. Docente integrante do Laboratório de Vulnerabilidades, Riscos e Sociedade da Universidade Feevale (LaVuRS/Feevale). DOI: https://doi.org/10.29327/5734110.1-1
Prefácio 8 IA, ele é fruto de um profundo desejo de conhecer, portanto, nasce de uma “Ignorância Atenta”, o que podemos considerar outro tipo de IA, aquele que nasce da curiosidade. Por mais variados que sejam os treze textos que compõem este livro, o leitor irá encontrar neste sucinto prefácio uma breve reflexão sobre cultura, arte e sociedade. Neste campo, o que chamo de “campo da imaginação aplicada”, não há como obliterar as inúmeras vezes que o Cinema nos colocou diante da Inteligência Artificial, muitas vezes construindo narrativas nada animadoras sobre o futuro da nossa relação com esta nova tecnologia. James Cameron em 1991, mostrou na grande tela o que aconteceria se as máquinas se rebelassem contra a humanidade. Em determinado momento do filme – “Terminator II” Sarah Connor apresenta aos espectadores o pesadelo do que seria uma guerra nuclear iniciada pelas máquinas. Conforme a narrativa do filme, a Skynet (IA fictícia) é aprovada pelo Congresso dos Estados Unidos, em agosto de 1997. Tão logo as decisões estratégicas sobre defesa ficam a cargo desta Inteligência. Em 29 de agosto do mesmo ano ela se torna consciente, então percebe os humanos como uma ameaça. Se seguirmos o pensamento de Nicolelis, no livro supracitado, veremos que as decisões (muitas decisões) que tomamos hoje se baseiam, se não na totalidade, mas em grande parte no uso da IA para guiar nossas ações. Fixamos no presente. Este ano de 2025, percorreu no mundo internético de notícias, desde os sites da DW, passando por CNN e Globo a informação que uma IA foi nomeada pelo governo da Albânia para ser Ministra. Seu nome Diella, sua função, livrar as decisões sobre licitações e contratos públicos da corrupção, ou seja, eliminar uma das variáveis do fator humano. Por outro lado, ainda no campo da Cultura e da Sociedade de forma mais abrangente, em 2022 a revista Nature publicou pesquisa no qual apresentou a ferramenta “Ítaca” criada pela subsidiária da Google – Deepmind com ajuda de pesquisadores das Universidades de Veneza, Oxford e Atenas. Esta ferramenta foi treinada para completar parte de textos antigos como forma de recuperar fragmentos perdidos destes textos. Alimentada commais de setenta mil inscrições oriundas do banco de dados da Packard Institute for the Humanities, que possui uma das maiores coleções digitais de inscrições gregas antigas. A aplicação de IA nas humanidades pode ainda
9 Júlio César da Rosa Herbstrith parecer um tabu, mas imaginemos o quanto poderíamos progredir em termos de reparações histórica necessárias para contar a história da humanidade de forma mais assertiva e inclusiva? É claro que exemplos não faltou, pelo contrário irão aumentar. Mas, também é fundamental compreendermos que não devemos incorrer no risco de delegarmos todas as tarefas intelectuais ou mesmo parte generosa delas para os ‘Sistemas Artificiais” termo usado por Nicolelis, pois ao fazermos isso, corremos o risco de diminuirmos nossa capacidade de imaginar. Devemos olhar com criticidade para este uso, fazer a ferramenta trabalhar conosco e para a coletividade, do contrário, iremos trabalhar para a ferramenta. Nem tanto apocalíptico em relação ao uso de IA que hoje perpassa grande parte das ações humanas, nem tanto integrado, para que incorramos no erro do olhar maravilhado e acrítico. Quem sabe escolhermos um olhar em suspensão, tentar operar em um entre. Antes de apresentar, ainda que brevemente os textos que compõem este livro, apenas mais uma digressão. Mapa, para que ou para quem serve um mapa? É inegável que o sistema de posicionamento global revolucionou a vida de todos nós, afinal, os trabalhadores/as, entregadores/as que navegam pelas cidades, de motocicleta, carro, bicicletas conseguem nos encontrar nos mais difíceis acessos. Sem o GPS, isso seria mais difícil, mais lento, daí nossa comidinha, nossos hambúrgueres e nossas caixinhas de gato demorariam mais para encontrar nossa localização. Imaginemos um gato sem caixinha, um hambúrguer frio e batatinhas mais moles, ruim. Vamos além, imaginemos nós perdidos, sem o Maps, sem o Waze, e pior ainda sem podermos usarmos o Maps e Waze para driblarmos as barreiras, a polícia, ficaríamos na total escuridão ante o perigo de um buraco na pista ou de um Radar de Fiscalização de Velocidade. Pois bem, o mapa, a abstração que durante séculos alimentou a imaginação dos/as aventureiros/as, colocou o mundo visível diante dos olhos de Dinastia de reis, rainhas e Imperadores. Nós usamos o mapa para circularmos em nosso próprio bairro, pois, se não usarmos poderemos perder a oportunidade de tomarmos o caminho “errado”, aquele que não foi indicado pelo Maps e que certamente vai fazer com que tomemos o caminho mais longo, mais demorado, o caminho “errado”. Mas o que acontece quando delegamos exclusivamente àmáquina o desenho de nossas trajetórias?
Prefácio 10 Sobre isso, cabe citar o pensamento de Nicolelis sobre a condição do cérebro humano diante da realidade de delegarmos quase tudo à instrução que as máquinas nos dão. Conforme o autor quando o cérebro humano é exposto às novas condições ou transformações do mundo exterior, em particular as experiências de prazer, de maneira geral ocorre um início de processo de autor reformatação imediata da microestrutura orgânica interna, para que ele (o cérebro) possa usar a informação “nova” no seu tecido neural como um guia para definir comportamento e ações (Nicolelis, 2020). Portanto, quando delegamos à máquina cotidianamente tarefas que julgamos “menos” importantes, como ir de um ponto A para um ponto B, na cidade na qual vivemos, as vezes no bairro em que vivemos, como forma de aumentar a eficiência na escolha do melhor caminho, estamos sendo levados pela tecnologia. De tal forma que a previsibilidade limita a nossa capacidade de aprendermos com o acaso e com o erro. Isso faz com que diminua a chance de nos perdermos, mas também, diminui a possibilidade de criarmos alternativas durante o processo. Ou seja, ao ganharmos tempo, não nos damos o direito de perdermos tempo para criarmos respostas diante dos processos e variáveis que vida nos apresenta. A possível resultante deste processo é a falta de atenção, pois o caminho já está posto. Mas, Nicolelis vai além, e alerta para o fato de estarmos cada vez mais utilizando a forma de uma lógica binária para nos comunicarmos com o mundo, para tomarmos decisões. Isso forçosamente poderá desencadear uma remodelagem do nosso cérebro, tanto na forma de pensar e de agir que será influenciada por esta lógica binária. Portanto, podemos perguntar, será que estamos treinando a IA ou sendo treinados por ela? Como dito anteriormente, nem tanto apocalíptico nem tanto integrados, devemos pensar, olhar com criticidade e os textos que se seguem neste livro trazem esta oportunidade. Desde as questões que envolvem o Direito e a Regulamentação de IA’s, passando pelas questões territoriais, até propostas que colocam em diálogo poéticas e política, desde a perspectiva da memória e dos acervos reelaborados costurando umdiálogo entre o espaço digital e o espaço físico. Os textos apontam as aplicações, ocorrências e problemáticas oriundas da realidade fatual de que a IA é transversal aos processos jurídicos que organizam a nossa sociedade e que cada vez mais precisam ser
11 Júlio César da Rosa Herbstrith reelaborados para que não incorramos em erros que culminem na aplicação desregulada da lei. Aqui o/a leitor/a encontrará trabalhos que refletem sobre a vida, a estética a ética e a política e como a Inteligência Artificial atua na forma como aprendemos e apreendemos o mundo que nos cerca. Que esta leitura seja um passo importante, que nos coloque diante de uma realidade que não necessariamente deva ser apocalíptica. Mas, sobretudo, que nos faça perceber que diante do fato IA não devemos ser maravilhados e, menos ainda, inocentes, pois corremos o risco de perder o que conquistamos ao longo de milhares de anos – a capacidade de imaginar. Dr. Júlio César da Rosa Herbstrith REFERÊNCIA NICOLELIS, M. A. L.. O verdadeiro criador de tudo: como o cérebro humano esculpiu o universo como nós o conhecemos. São Paulo: Crítica, 2020.
13 AGENTES DE INTELIGÊNCIA ARTIFICIAL: A CAUSA DO EFEITO BRUXELAS NO IA ACT?1 Wilson Engelmann2 Camila Machado Dias3 1 Este trabalho é o resultado parcial das pesquisas realizadas pelos autores no âmbito dos seguintes projetos de pesquisa: a) Chamada CNPq n. 09/2023 – Bolsas de Produtividade em Pesquisa – PQ, projeto intitulado: “Experimentos no Direito: desafios e possibilidades para a regulação baseada em princípios da inteligência artificial e sua testagem em Living Lab Regulatório”; b) Chamada CNPq Universal 2023, projeto intitulado: “Direitos Humanos e Inteligência Artificial: da violação dos direitos da personalidade à necessidade de regulação das novas tecnologias”. Este trabalho tambémestá vinculado às pesquisas realizadas pelos autores nos seguintes Centros Internacionais de Investigação: CEDIS – Centro de Investigação & Desenvolvimento sobre Direito e Sociedade, da Faculdade de Direito da Universidade Nova de Lisboa, Portugal; do Instituto Jurídico Portucalense, da Universidade Portucalense, cidade do Porto, Portugal; do CEAD – Centro Francisco Suárez – Centro de Estudos Avançados emDireito da Universidade Lusófona de Lisboa, Portugal; e do Centro de Estudios de Seguridad (CESEG), da Universidad de Santiago de Compostela, Espanha. Foi utilizado o ChatGPT, indicando o seguinte Prompt: “Utilize a língua portuguesa culta, atue com um professor de língua portuguesa e faça uma leitura atenta do texto, ajustando eventuais incorreções gramaticais e de pontuação. Não altere o sentido de nenhuma frase do texto; não faça nenhuma inserção de fontes ou de texto.” 2 Doutor e Mestre emDireito Público pelo Programa de Pós-Graduação emDireito da Universidade do Vale do Rio dos Sinos – Unisinos, Brasil; realizou Estágio de Pós-Doutorado emDireito Público-Direitos Humanos, no Centro de Estudios de Seguridad (CESEG), da Universidade de Santiago de Compostela, Espanha; Professor e Pesquisador do Programa de Pós-Graduação emDireito – Mestrado e Doutorado e do Mestrado Profissional em Direito da Empresa e dos Negócios, ambos da Unisinos; Bolsista de Produtividade em Pesquisa do CNPq; Líder do Grupo de Pesquisa JUSNANO, credenciado no CNPq. E-mail: wengelmann@ unisinos.br. ORCID: https://orcid.org/0000-0002-0012-3559. 3 Mestranda emDireito Público, Programa de Pós-Graduação emDireito da Unisinos; Bolsista CAPES/PROEX; Advogada, com atuação na área de Direito de Família e Sucessões, bacharela em Direito e pós-graduada em Direito e Gestão Tributária pela Universidade do Vale do Rio dos Sinos (Unisinos); pesquisadora integrante do Grupo de Pesquisa JUSNANO. E-mail: advcmachado@gmail. com. ORCID: https://orcid.org/0009-0002-6473-2393. DOI: https://doi.org/10.29327/5734110.1-2
Agentes de inteligência artificial: a causa do Efeito Bruxelas no IA ACT? 14 Resumo: O surgimento de agentes de Inteligência Artificial (IA) cada vez mais autônomos, capazes de planejar e executar tarefas complexas commínima intervenção humana, intensifica o debate acerca da necessidade de marcos regulatórios robustos. Este artigo examina o Regulamento Europeu de Inteligência Artificial (IA Act) como paradigma central, sob a perspectiva do princípio da territorialidade, com o propósito de verificar sua relativização diante de provedores estabelecidos em países terceiros. Busca-se, ainda, analisar a projeção do chamado “Efeito Bruxelas”, conforme a teoria desenvolvida por Anu Bradford. A partir de pesquisa bibliográfica e análise normativa, evidencia-se que o IA Act, ao instituir um escopo regulatório amplo (art. 2º), rompe com a concepção clássica do princípio da territorialidade, impondo sua extraterritorialidade deliberada a provedores sediados fora da União Europeia sempre que os resultados de seus sistemas sejam utilizados no mercado europeu e, ainda, tem-se a ocorrência do Efeito Bruxelas. Palavras-chave: Agente de IA. Princípio da territorialidade. Regulamentação. IA Act. Efeito Bruxelas. 1. INTRODUÇÃO Na contemporaneidade, o avanço da inteligência artificial e a intensificação da digitalização das relações humanas impõem desafios inéditos e complexos ao ordenamento jurídico. A ascensão da inteligência artificial, a consolidação dos efeitos da Quarta Revolução Industrial (Klaus Schwab) e a inserção da inteligência artificial na vida cotidiana têm remodelado estruturas sociais, afetivas e jurídicas de maneira radical. Em um cenário intensamente marcado pela presença de tecnologias disruptivas, torna-se imprescindível analisar a natureza e o funcionamento dos agentes de inteligência artificial, investigando o modo como são desenvolvidos, o grau de autonomia que possuem e, sobretudo, as formas pelas quais o Direito busca disciplinar e tutelar essa nova figura. Apesar da relevância e da complexidade desse fenômeno, o Direito Brasileiro ainda não dispõe de mecanismos doutrinários ou normativos suficientemente desenvolvidos para atribuir uma definição funcional ou regular seu uso. Trata-se de uma lacuna regulató-
15 Wilson Engelmann e Camila Machado Dias ria e prática que compromete não apenas a segurança jurídica, mas também a efetividade Dessa forma, para estabelecer um ponto de partida na discussão sobre a regulação do uso de agentes de Inteligência Artificial, a análise tomará como referência o Regulamento Europeu de Inteligência Artificial (IA Act), que entrou em vigor em 1º de agosto de 2024, prevendo aplicação escalonada de suas disposições e implementação integral até o ano de 2026. O Artigo 2º do IA Act define um escopo de aplicação bastante amplo. O regulamento alcança tanto os provedores que colocam sistemas de inteligência artificial no mercado ou em serviço dentro da União Europeia, independentemente de estaremou não estabelecidos em território europeu, quanto aos usuários que se encontrem situados na União. Além disso, estende-se também a provedores e usuários localizados em países terceiros, sempre que o resultado produzido pelo sistema for utilizado na União. Na prática, isso significa que um assistente virtual desenvolvido por uma empresa sediada na União Europeia, ainda que utilizado por um consumidor no Brasil, estará sujeito às disposições do IA Act, já que sua inserção no mercado europeu o vincula às regras do regulamento, independentemente da localização do usuário final. Da mesma forma, se uma empresa brasileira usar um assistente virtual fornecido por uma empresa dos Estados Unidos, mas o resultado dessa interação for direcionado a um cidadão europeu, o IA Act também será aplicável. Surge, então, a dúvida central deste trabalho: nesse cenário, se está diante de uma relativização do princípio da territorialidade, de mais um exemplo do Efeito Bruxelas ou, na verdade, da ocorrência das duas situações ao mesmo tempo? Para analisar a referida situação, é preciso abarcar a teoria do “Efeito Bruxelas”, desenvolvida por Anu Brandford, que discorre sobre o poder unilateral que a União Europeia (UE) detém para regular situações a nível global, alinhando as relações aos seus padrões, inclusive normativos. A referida análise passa por cinco requisitos essenciais, que são: market size (tamanho de mercado), regulatory capacity (capacidade regulatória), stringent standards (padrões rigorosos), inelastic targets (alvos ineslásticos) e indivisibility (indivisibilidade).
Agentes de inteligência artificial: a causa do Efeito Bruxelas no IA ACT? 16 Em síntese, o Efeito Bruxelas distingue-se de outros mecanismos de influência regulatória, como a extensão territorial, que pressupõe a existência de um vínculo territorial para que a norma considere condutas ocorridas no exterior. O Efeito Bruxelas, por sua vez, decorre do poder econômico e normativo da União Europeia, capaz de induzir a adoção de seus padrões por outros países e empresas que desejam manter relações com ela, mesmo sem imposição legal direta fora de seu território. Assim, a análise do IA Act e do Efeito Bruxelas revela um cenário em que a regulação da inteligência artificial ultrapassa fronteiras tradicionais, impondo desafios tanto ao princípio da territorialidade quanto à autonomia normativa de países terceiros. Essa constatação justifica a investigação proposta neste trabalho, que buscará compreender de que modo tais fenômenos se articulam. 2. FUNDAMENTAÇÃO TEÓRICA Para se buscar elementos estruturantes para o entendimento do “Efeito Bruxelas”, se faz a seguinte revisão da literatura, como uma das principais metodologias, aliada à análise documental. 3. AGENTES DE IA: CONCEITO A compreensão dos agentes de inteligência artificial exige, antes de tudo, o exame de sua natureza técnica e funcional. Diferentemente de um software tradicional, os agentes de IA se caracterizam pela capacidade de inferir, aprender e adaptar-se a novos contextos, atuando em graus variados de autonomia em relação ao controle humano. Essa autonomia é o que os aproxima da noção de “agentes”4, uma vez que podem não apenas processar dados, mas 4 FLORIDI, Luciano. Etica dell’intelligenza artificiale: sviluppi, opportunità, sfide. Milano: R. Cortina, 2022; FLORIDI, Luciano. AI as Agency Without Intelligence: on ChatGPT, Large Language Models, and Other Generative Models. Philosophy Technology, v. 36, artigo 15, 2023. Disponível em: https://link.springer.com/ar ticle/10.1007/s13347-023-00621-y. Acesso em: 27 set. 2025.
17 Wilson Engelmann e Camila Machado Dias também tomar decisões, formular planos e executar tarefas em ambientes complexos5. Com o expressivo avanço tecnológico e a intensificação da integração da sociedade ao ambiente digital, observa-se uma crescente demanda de desenvolvimento de agentes inteligentes autônomos, capazes de enfrentar desafios de maneira inovadora, entretanto, essa característica expande sobremaneira os riscos jurídicos envolvidos, uma vez que as consequências de suas ações podem ultrapassar o mero campo instrumental, atingindo direitos fundamentais, a segurança e até a própria estrutura das relações jurídicas. O marco normativo que se tem é o Regulamento Europeu de Inteligência Artificial, conhecido como IA Act, que representa a primeira tentativa abrangente de disciplinar a IA em escala supranacional. O Artigo 2º do IA Act estabelece um escopo de aplicação extremamente amplo, alcançando provedores e usuários estabelecidos na União Europeia, bem como aqueles situados fora de seu território, desde que o output de seus sistemas produza efeitos na União Europeia. Mas, há necessidade de compreender-se que o IA Act não utiliza o termo “agente de IA” para se referir à tecnologia em si, mas sim “sistema de inteligência artificial”, entretanto adotar-se-á a nomenclatura ‘agente de IA’ para que possamos explanar os graus de agenticidade, considerando a terminologia adotada pelo Center for Security and Emerging Technology. Assim, o artigo 3º do IA Act define no que consiste um agente de IA, como: “AI system” means a machine-based system that is designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment, and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments.6 5 TONER, Helen et al. Through the Chat Window and Into the Real World: Preparing for AI Agents. Washington, D.C.: Center for Security and Emerging Technology, out. 2024. Disponível em: https://cset.georgetown.edu/publication/ through-the-chat-window-and-into-the-real-world-preparing-for-ai-agents/. Acesso em: 28 set. 2025. 6 “Sistema de IA” significa umsistema baseado emmáquina que é projetado para operar com diferentes níveis de autonomia e que pode apresentar adaptabilidade após a sua implementação, e que, para objetivos explícitos ou implícitos, infere, a partir das entradas que recebe, como gerar saídas tais como previsões,
Agentes de inteligência artificial: a causa do Efeito Bruxelas no IA ACT? 18 A agenticidade emsistemas de inteligência artificial7 pode ser entendida como umcontínuo que varia conforme quatro dimensões: a complexidade dos objetivos, a complexidade do ambiente, a capacidade de planejamento e adaptação independentes e o grau de ação direta8. Em níveis baixos, a IA executa tarefas simples, em contextos previsíveis, seguindo instruções pré-programadas e limitando-se a oferecer informações ou recomendações. Já em níveis altos, é capaz de perseguir metas múltiplas e de longo prazo em ambientes incertos, elaborar planos próprios, adaptar-se amudanças e agir de forma autônoma, influenciando diretamente o mundo físico ou virtual. 4. CADEIA DE ATORES NO IA ACT É necessária a compreensão da estrutura dos agentes de IA segundo o IA Act, que se subdividem em duas categorias centrais: provider (provedores) e deployer (usuários). Os provider (provedores) são responsáveis pelo desenvolvimento, disponibilização e manutenção dos agentes de IA, são as figuras centrais, a eles cabem obrigações que vão desde a concepção técnica, contemplando aspectos de segurança, confiabilidade e transparência, até a inserção do produto no mercado9. O Artigo 3 do IA Act define o provedor como a pessoa natural ou jurídica, autoridade pública, agência ou outro organismo que desenvolve um agente de IA ou um modelo de propósito geral, ou que encomenda o seu desenvolvimento e o disponibiliza no mercado ou em serviço sob o seu próprio nome ou marca, seja de forma onerosa ou gratuita. conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais. UNIÃO EUROPEIA (UE). Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024, que estabelece regras harmonizadas em matéria de inteligência artificial e altera os Regulamentos (CE) n.º 300/2008, (UE) n.º 167/2013, (UE) n.º 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e as Diretivas 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (Regulamento Inteligência Artificial). Jornal Oficial da União Europeia, L 1689, 12 jul. 2024. Disponível em: https://eur-lex.europa.eu/legal-con tent/PT/TXT/?uri=CELEX:32024R1689. Acesso em: 28 set. 2025. 7 FLORIDI, AI as Agency..., op. cit. 8 TONER, op. cit. 9 UNIÃO EUROPEIA, op. cit.
19 Wilson Engelmann e Camila Machado Dias De acordo com o Artigo 16, as obrigações do provedor incluem: (i) garantir a conformidade do agente com os requisitos da Seção 2 do Capítulo III — que abrangem gestão de riscos, governança de dados e outros; (ii) implementar um sistema de gestão da qualidade (Art. 17); (iii) manter a documentação técnica pertinente (Art. 18) e os registros automáticos de operação (Art. 19); (iv) submeter o agente ao procedimento de avaliação de conformidade aplicável (Art. 43); (v) elaborar a Declaração de Conformidade da União Europeia (Art. 47) e afixar a marcação CE correspondente (Art. 48); (vi) registrar o agente na base de dados europeia (Art. 49); (vii) estabelecer mecanismos de monitoramento pós-comercialização (Art. 72), adotando medidas corretivas quando necessário e comunicando incidentes graves às autoridades competentes (Arts. 20 e 73); e (viii) cooperar de forma contínua com os órgãos de fiscalização10. Já os deployer (usuários), são aqueles que aplicam os agentes de IA emcontextos específicos, seja no setor público, seja no privado. Sua responsabilidade recai sobre a forma de uso da tecnologia, o que inclui a adequação às finalidades previstas e a prevenção de danos a terceiros11. Por exemplo, umbanco que utiliza IA para análise de crédito deve não apenas confiar na robustez do agente fornecido, mas também adotar medidas para mitigar vieses e assegurar conformidade regulatória. Suas obrigações (Artigo 26) incluem usar o agente de acordo com as instruções do provedor, garantir a competência do pessoal encarregado da supervisão humana, monitorar o funcionamento do agente e, em certos casos (se for uma autoridade pública ou entidade que presta serviços públicos), realizar uma avaliação de impacto sobre os direitos fundamentais antes de o utilizar (Artigo 27)12. O IA Act ainda prevê papéis específicos para outros operadores envolvidos na colocação de agentes de inteligência artificial no mercado europeu, estabelecendo deveres distintos para cada umdeles. O Authorised Representative (Representante Autorizado) é a pessoa 10 PIEDRA ALEGRÍA, Jonathan. Anotaciones iniciales para una reflexión ética sobre la regulación de la Inteligencia Artificial en la Unión Europea. Revista de Derecho, Montevideo, n. 28, e3264, jul./dez. 2023. Disponível em: http://www. scielo.edu.uy/scielo.php?script=sci_arttext&pid=S2393-61932023000201402. Acesso em: 28 set. 2025. 11 UNIÃO EUROPEIA, op. cit. 12 UNIÃO EUROPEIA, op. cit.
Agentes de inteligência artificial: a causa do Efeito Bruxelas no IA ACT? 20 estabelecida na União Europeia que, por mandato de um provedor localizado em país terceiro, assume a responsabilidade de cumprir determinadas obrigações em seu nome13. O Importer (Importador) é a pessoa, também estabelecida na União, que coloca no mercado um agente de IA produzido por um provedor de fora do bloco. Cabe-lhe verificar se o provedor cumpriu todas as exigências previstas pelo regulamento14. Já o Distributor (Distribuidor) corresponde a qualquer agente da cadeia de suprimentos que, sem ser provedor ou importador, disponibiliza agentes de IA no mercado da União Europeia, sua função central é assegurar que o produto apresente a devida marcação e esteja acompanhado da documentação obrigatória15. Deve-se ter presente que a interação entre provedores e usuários revela uma cadeia de responsabilidades compartilhadas. Enquanto os primeiros detêm maior domínio sobre a arquitetura técnica, os segundos controlam o contexto de aplicação. Esse duplo papel traz desafios significativos ao Direito, sobretudo quanto à definição de responsabilidades em casos de danos, discriminação algorítmica ou violações a direitos fundamentais16. Ademais, a emergência de agentes autônomos, capazes de tomar decisões complexas sem supervisão humana constante, amplia a complexidade da discussão sobre imputação de responsabilidade e regulação adequada17.Sua lógica é baseada no gerenciamento de riscos, estabelecendo quatro categorias principais: risco inaceitável, alto, limitado e mínimo18 O risco inaceitável corresponde a práticas de IA que representam ameaça evidente aos direitos fundamentais e valores da União, 13 PIEDRA ALEGRÍA, op. cit. 14 Ibidem. 15 Ibidem. 16 PEREIRA, Amanda Kelly Araújo; MEDEIROS, Denise Rodrigues; PELISSON, Gustavo Chalegre. Regulamentação dos sistemas de inteligência artificial no ordenamento jurídico brasileiro. Revista Multidisciplinar do Nordeste Mineiro, v. 4, n. 1, p. 1-12, 2024. Disponível em: https://www.researchgate.net/ publication/380285121_REGULAMENTACAO_DOS_SISTEMAS_DE_INTELI GENCIA_ARTIFICIAL_NO_ORDENAMENTO_JURIDICO_BRASILEIRO/fulltext/ 6633ae9f08aa54017ad53d94/REGULAMENTACAO-DOS-SISTEMAS-DE-IN TELIGENCIA-ARTIFICIAL-NO-ORDENAMENTO-JURIDICO-BRASILEIRO.pdf. Acesso em: 28 set. 2025. 17 PIEDRA ALEGRÍA, op. cit. 18 UNIÃO EUROPEIA, op. cit.
21 Wilson Engelmann e Camila Machado Dias sendo, portanto, proibidas — como é o caso de agentes de pontuação social por parte de governos e do uso, em regra, da identificação biométrica remota em tempo real em espaços públicos19. Los sistemas de IA que entran en la categoría de riesgo inaceptable son aquellos con la capacidad de infligir daño físico o psicológico a las personas. Estos sistemas están prohibidos, ya que contradicen los valores fundamentales de la UE. Estos valores incluyen el respeto a la dignidad humana, la libertad, la igualdad, la democracia, el Estado de derecho y los DDFF, el derecho a no ser discriminado, a la protección de datos o a la privacidad.20 Neste sentido, cumpre esclarecer que os Direitos Fundamentais (DDFF) são os direitos reconhecidos e protegidos pela Constituição ou lei fundamental de um país específico, tendo um caráter mais concreto e um âmbito nacional (ou comunitário), como no caso da Carta dos Direitos Fundamentais da União Europeia (UE)21. Os DDFF ao serem positivados em ordens constitucionais específicas, refletem as escolhas políticas, históricas e culturais de cada Estado ou comunidade regional, assegurando mecanismos de tutela jurisdicional interna mais imediatos e eficazes. Dessa forma, é possível afirmar que atuam como um núcleo concreto de proteção dentro dos sistemas jurídicos nacionais ou supranacionais, enquanto os direitos humanos servem como parâmetro de legitimidade e orientação normativa no plano internacional22. Já os sistemas de alto risco, por sua vez, são aqueles com potencial de afetar de modo adverso a saúde, a segurança ou os direitos fundamentais dos cidadãos. Embora não sejam vedados, devem atender a requisitos obrigatórios de precisão, robustez e cibersegu19 PIEDRA ALEGRÍA, op. cit. 20 Os sistemas de IA que se enquadram na categoria de risco inaceitável são aqueles com a capacidade de causar dano físico ou psicológico às pessoas. Esses sistemas estão proibidos, pois contradizem os valores fundamentais da União Europeia. Esses valores incluem o respeito pela dignidade humana, a liberdade, a igualdade, a democracia, o Estado de direito e os direitos fundamentais, bem como o direito de não ser discriminado, à proteção de dados e à privacidade. UNIÃO EUROPEIA, op. cit. 21 PIEDRA ALEGRÍA, op. cit. 22 AMARAL JÚNIOR, Alberto do. Curso de direito internacional público. 2. ed. São Paulo: Atlas, 2011. p. 457.
Agentes de inteligência artificial: a causa do Efeito Bruxelas no IA ACT? 22 rança, alémde se submeterem a avaliação de conformidade antes da comercialização. O risco limitado compreende aplicações que não oferecem perigo significativo, mas que estão sujeitas a obrigações de transparência, como a informação clara de que o usuário interage com um agente de IA, a exemplo dos chatbots. Por fim, os sistemas de risco mínimo ou inexistente não possuem exigências específicas além da legislação já aplicável. 23 Considerando a cadeia de atores envolvidos no desenvolvimento dos agentes de IA, eis que surge a problemática central deste trabalho: nas situações em que o provedor estiver sediado fora do território da União Europeia e o usuário final estiver em solo europeu, com a aplicabilidade do IA Act, estamos diante da relativização do princípio da territorialidade ou mais um exemplo do Efeito Bruxelas?! 5. TERRITORIALIDADE, EXTRATERRITORIALIDADE E DIREITO DA INTEGRAÇÃO Para realizar tal análise, se precisa compreender a essência do princípio da territorialidade e o Direito da integração. Como prelecionam Hildebrando Accioly, G. E. do Nascimento e Silva e Paulo Borba Casella24, o princípio da territorialidade constitui pilar do Direito Internacional e no Direito Penal, segundo o qual cada Estado exerce jurisdição sobre os fatos ocorridos em seu território, contudo Paulo Casella afirma que as novas dinâmicas jurídicas internacionais exigem admitir exceções e ajustes compatíveis com o direito internacional contemporâneo. Para Alberto do Amaral Júnior25, o princípio da territorialidade é a regra segundo a qual o Estado exerce sua jurisdição normativa, de aplicação de leis e de atuação institucional, primariamente sobre os fatos e atos localizados em seu território, de forma que a 23 PIEDRA ALEGRÍA, op. cit. 24 CASELLA, Paulo Borba. Manual de direito internacional público. 20. ed. São Paulo: Saraiva, 2012. p. 559. 25 AMARAL JÚNIOR, op. cit., p. 162.
23 Wilson Engelmann e Camila Machado Dias competência estatal está vinculada ao espaço geográfico sob soberania estatal. Nessa lógica, historicamente consolidada, encontram-se desafios diante da natureza desterritorializada da economia digital e da inteligência artificial. A circulação de dados, algoritmos e serviços digitais transcende fronteiras físicas, tornando insuficiente a aplicação estrita do critério territorial. No campo normativo, a União Europeia desponta como protagonista com o Regulamento de Inteligência Artificial (IA Act), aprovado em 2024, cujo objetivo é criar um regime jurídico uniforme para o desenvolvimento e uso da IA no mercado europeu. Como já exposto, sua inovação principal reside na abordagem baseada em risco, que classifica os sistemas em categorias de risco inaceitável, alto, limitado e mínimo, impondo obrigações diferenciadas para cada caso. Ao mesmo tempo, o regulamento se distingue por seu escopo de aplicação extraterritorial, alcançando provedores estabelecidos fora da União sempre que os resultados de seus sistemas impactarem usuários ou cidadãos europeus. Essa configuração normativa, em uma primeira análise, relativiza o princípio clássico da territorialidade e projeta efeitos sobre países terceiros, incluindo até mesmo o Brasil, criando um ponto de convergência entre Tecnologia, Direito e soberania. Imagine que uma empresa brasileira desenvolve um assistente virtual para recomendação de investimentos, contratado por uma instituição financeira europeia. Ainda que a empresa opere exclusivamente no Brasil, seu produto estará sujeito às regras do IA Act, pois o resultado impactará consumidores europeus. Nesse cenário, a territorialidade deixa de ser critério exclusivo de aplicação normativa, cedendo espaço a uma lógica funcional baseada no impacto regulatório. Da mesma forma, se uma empresa brasileira usar um assistente virtual fornecido por uma empresa dos Estados Unidos, mas o resultado dessa interação for direcionado a um cidadão europeu, o IA Act também será aplicável. Surge, então, a dúvida central deste trabalho: nesse cenário, estamos diante de uma relativização do princípio da territorialidade, de mais um exemplo do Efeito Bruxelas ou, na verdade, da ocorrência das duas situações ao mesmo tempo?
Agentes de inteligência artificial: a causa do Efeito Bruxelas no IA ACT? 24 6. O “EFEITO BRUXELAS” E O IA ACT Segundo Anu Bradford26, a teoria do “Efeito Bruxelas” descreve exportação de padrões regulatórios da UE para além de suas fronteiras e explica como o tamanho do mercado europeu, aliado à sua capacidade regulatória e à imposição de padrões rigorosos, transforma suas normas em referência global. Esse efeito manifesta-se de forma indireta, na medida em que empresas de fora da UE passam a adotar seus padrões regulatórios como forma de acessar e permanecer no mercado europeu. O Efeito Bruxelas manifesta-se de duas formas complementares. O chamado de facto ocorre quando empresas multinacionais, buscando evitar os custos de conformidade a múltiplos regimes e preservar economias de escala, optam voluntariamente por adotar os padrões da União Europeia em suas operações globais. Essa estratégia, além de reduzir complexidades produtivas ao manter uma linha unificada ajustada ao nível regulatório mais rigoroso, também pode gerar benefícios reputacionais ao sinalizar compromisso com qualidade, segurança e direitos. Já o Efeito Bruxelas de jure verifica-se quando governos estrangeiros incorporam normas semelhantes às europeias, seja em razão da pressão de setores econômicos que já se adaptaram ao padrão da UE e demandam igualdade regulatória, seja pela conveniência de aproveitar um modelo sólido e bem estruturado, o que reduz custos e esforços no processo de elaboração normativa. Segundo Anu Bradford, o Efeito Bruxelas só se concretiza quando estão presentes cinco condições cumulativas27: 1) a existência de um mercado grande e economicamente atrativo, cujo acesso seja indispensável às empresas globais; 2) a presença de instituições regulatórias robustas e politicamente dispostas a criar e aplicar normas complexas; 3) a adoção de padrões mais rigorosos do que os observados em outras jurisdições, estabelecendo um patamar elevado de exigência; 4) a inelasticidade dos alvos regulatórios, que não podem simplesmente se deslocar para evitar a regulação, como ocorre 26 BRADFORD, Anu. The Brussels Effect. Northwestern University Law Review, v. 107, n. 1, p. 1-67, 2012. Disponível em: https://papers.ssrn.com/sol3/papers. cfm?abstract_id=2770634. Acesso em: 29 set. 2025. 27 Ibidem.
25 Wilson Engelmann e Camila Machado Dias com os mercados consumidores; e, por fim, 5) a indivisibilidade, que leva as empresas a adotar um padrão de produção uniforme em escala global, seja por razões técnicas, econômicas ou legais, tornando inviável a segmentação da produção para diferentes mercados. Por essa razão, projeta-se que o IA Act se consolide como referência regulatória global, levando empresas norte-americanas, chinesas e de outras regiões a alinharem-se às normas europeias para permanecer competitivas no cenário internacional. No caso das empresas brasileiras, se quiserem participar do mercado europeu, deverão adequar-se ao AI Act. Portanto, para esses atores já se tem um marco regulatório a ser observado. 7. RELATIVIZAÇÃO DO PRINCÍPIO DA TERRITORIALIDADE OU EFEITO BRUXELAS? Nesse contexto, destaca-se a tensão entre o princípio da territorialidade e o alcance extraterritorial do regulamento. Tradicionalmente, a territorialidade consagra a ideia de que a soberania estatal se limita às fronteiras geográficas, mas a lógica desterritorializada da economia digital desafia esse paradigma. O artigo 2º, inciso 1, do regulamento define um escopo abrangente, aplicando-se não apenas a provedores e usuários estabelecidos na União Europeia, mas também àqueles situados empaíses terceiros, sempre que os resultados de seus sistemas de IA forem utilizados no território europeu. Assim, por exemplo, uma empresa brasileira que desenvolva uma ferramenta de análise de crédito estará sujeita ao IA Act se seus outputs forem empregados para decisões que impactem cidadãos europeus, ainda que suas operações ocorram integralmente fora da Europa. Esse mecanismo, descrito como “extensão territorial”, impõe de fato a conformidade global, tornando inviável a segmentação de operações para excluir os efeitos do mercado europeu. O Efeito Bruxelas representa o poder regulatório unilateral da União Europeia, capaz de irradiar seus padrões normativos para além das fronteiras formais. O IA Act emerge como sua expressão mais recente e contundente no campo da inteligência artificial, ao conjugar regras rígidas, foco em direitos fundamentais e aplicação
Agentes de inteligência artificial: a causa do Efeito Bruxelas no IA ACT? 26 extraterritorial, projetando-se como modelo regulatório de alcance global, condição essencial para a materialização do Efeito Bruxelas. Em suma, o Efeito Bruxelas, conceito desenvolvido por Anu Bradford, descreve o fenômeno pelo qual a União Europeia projeta seus padrões regulatórios além de suas próprias fronteiras. Ao fazê- -lo, esses padrões acabam sendo incorporados por outros países e empresas, transformando-se em referência global. Na prática, isso significa que assistentes virtuais ou agentes de IA desenvolvidos nos Estados Unidos ou no Brasil devem ser moldados pelos parâmetros europeus, ainda que não exista obrigação legal direta em seus países de origem. A consequência é dupla: de um lado, a União Europeia reforça sua posição como reguladora global; de outro, países terceiros enfrentam o desafio de harmonizar suas normas internas a esse novo paradigma. O primeiro elemento, tamanho do mercado, é cumprido pela União Europeia, que se destaca como um dos maiores e mais atrativos mercados consumidores globais, de acesso indispensável às Big Techs e desenvolvedores de IA. Já a capacidade regulatória se confirma na tradição da UE emdisciplinar tecnologias digitais por meio de instituições robustas, reforçada no IA Act com a criação do Gabinete de IA, do Conselho Europeu de Inteligência Artificial e das autoridades nacionais de supervisão. Outro requisito, o dos alvos inelásticos, manifesta-se pelo foco do IA Act em outputs de sistemas de IA usados na União Europeia, independentemente da localização do provedor. Com o art. 2º, § 1º, alínea “c”, o regulamento adota a lógica da extensão territorial, tornando inevitável sua aplicação a qualquer provedor que queira alcançar consumidores europeus. Assim, a regulação incide sobre mercados e cidadãos que não podem simplesmente se deslocar para evitar a lei, o que obriga empresas de países terceiros a conformarem seus sistemas às normas da UE sempre que desejarem operar em seu território digital e econômico. Por fim, a indivisibilidade desempenha papel crucial, pois manter versões distintas de um mesmo sistema de IA para diferentes jurisdições é técnica e economicamente inviável. Diante disso, as empresas tendem a desenvolver seus produtos já em conformidade com os padrões europeus, aplicando-os globalmente para reduzir custos, preservar economias de escala e reforçar sua reputação.
27 Wilson Engelmann e Camila Machado Dias Essa convergência de fatores transforma o IA Act em um catalisador do Efeito Bruxelas, consolidando a UE como potência regulatória capaz de exportar seus padrões para além das fronteiras formais e influenciar a governança global da inteligência artificial. No conjunto, a tipificação dos cinco elementos do Efeito Bruxelas no IA Act demonstra que a União Europeia construiu deliberadamente um arcabouço regulatório com vocação extraterritorial. O tamanho do mercado, a robustez institucional, a adoção de padrões rigorosos, a inelasticidade dos alvos e a indivisibilidade técnica e econômica dos sistemas de IA convergem para forçar provedores globais a internalizar as normas europeias, mesmo quando atuam fora do território da União. Esse arranjo normativo rompe a lógica tradicional da aplicação territorial do Direito e transforma o acesso ao mercado europeu emcondição que projeta seus efeitos jurídicos emescala global. A configuração desafia o princípio clássico da territorialidade, que vincula a jurisdição ao espaço geográfico do Estado, substituindo-o por uma lógica funcional baseada no impacto dos outputs no mercado europeu. O IA Act ilustra um modelo em que a territorialidade deixa de ser critério exclusivo para aplicação de normas, cedendo espaço à integração regulatória transnacional. A União Europeia, ao condicionar a entrada de agentes externos em seumercado à observância de seus padrões, não apenas protege seus cidadãos, mas também reafirma seu papel como potência normativa global. Para países terceiros, como o Brasil, isso significa lidar com uma dupla consequência: por um lado, a necessidade de adaptação prática para acessar o mercado europeu; por outro, o reflexo normativo indireto, que leva à harmonização e à relativização da territorialidade em suas próprias ordens jurídicas. Além disso, o IA Act pode ser interpretado como manifestação do Direito de Integração Europeu, ao flexibilizar a rigidez do princípio da territorialidade para assegurar a eficácia normativa em um cenário desterritorializado, caracterizado pela economia digital e pela inteligência artificial. 8. CONSIDERAÇÕES FINAIS A análise empreendida demonstra que os agentes de inteligência artificial, divididos entre provedores e usuários, colocam
RkJQdWJsaXNoZXIy MjEzNzYz