301 Mateus Panizzon e Patrícia Montemezzo gias emergentes. Trata-se, em última instância, de garantir que os avanços tecnológicos estejam a serviço da emancipação humana — e não de sua redução a dados, previsões ou respostas automatizadas. Contudo, por qual racionalidade deve ser guiada? 5. POR UMA REDEFINIÇÃO DE UMA NOVA RACIONALIDADE PARA AS PLATAFORMAS DIGITAIS – REDES SOCIAIS A atuação das plataformas digitais, em especial, as redes sociais, cada vez mais baseadas em tecnologias de inteligência artificial, demonstra que a autonomia dos indivíduos e a liberdade de escolha são continuamente tensionadas por sistemas algorítmicos projetados para maximizar engajamento e lucro. Por meio de modelos de machine learning e redes neurais profundas, associadas a uma interface de scroll infinito, as interações dos usuários (tempo, cliques, foco) são transformadas em features preditivas que alimentam algoritmos de recomendação (Zuboff, 2019; Han, 2021). Esse processo, ao gerar excedentes comportamentais (behavioral surplus), converte a experiência humana de navegação passiva em conteúdo em uma mercadoria preditiva, reduzindo a capacidade de deliberação consciente e reforçando padrões de consumo induzidos (Floridi, 2013; Dufour, 2003). Há, pela lógica dos modelos de IA, uma recompensa programada ao promover um auto reforço de conteúdo para os usuários, em níveis de compreensão precisa de suas necessidades e desejos. Ou seja, para um algoritmo, um usuário realizar um scroll intermitente de segundos, representa para sua lógica, maior pontuação, enquanto para o humano, uma descarga de dopamina danosa à sua cognição, viciando o usuário em conteúdo. Ademais, a sofisticação técnica dos algoritmos impõe desafios de ordem maior. O caráter de black-box models (Burrell, 2016; Mittelstadt et al., 2016) compromete a transparência e impede que usuários e governos compreendam os critérios de recomendação dos conteúdos, bem como seus mecanismos de recompensa. Além disso, problemas de bias e fairness (Barocas; Hardt; Narayanan, 2019) reforçamdesigualdades sociais, pois decisões algorítmicas baseadas em dados históricos replicam discriminações estruturais. O risco de overfitting na personalização extrema amplia a formação de filter bubbles e reduz a diversidade informacional, fragilizando o exercício
RkJQdWJsaXNoZXIy MjEzNzYz