Inteligência artificial e algoritmos

283 Andressa Bassani, Ana Paula da Cruz Santos e Roberta Plangg Riegel de acesso, uso e continuidade do serviço. Essa configuração levanta preocupações sobre soberania digital, especialmente quando governos e instituições científicas tornam-se dependentes de plataformas que operam sob lógicas comerciais e geopolíticas, sujeitas a alterações contratuais e riscos de descontinuidade (Maestri; Nunes, 2024; Lemos et al., 2024). Tal dependência tecnológica cria vulnerabilidades institucionais e coloca em evidência os riscos associados à centralização de infraestruturas estratégicas em atores privados globais. Outro desafio está relacionado ao acesso desigual e às barreiras técnicas. Embora seja gratuito para fins acadêmicos, o GEE impõe restrições ao uso comercial e demanda conhecimentos avançados em linguagens de programação como JavaScript e Python, o que pode limitar sua adoção por usuários com menor formação técnica (Yang et al., 2022). Esse requisito pode acentuar desigualdades entre instituições e países, visto que nem todos dispõem de equipes capacitadas ou infraestrutura de apoio. Estudos apontam que, apesar do avanço da inteligência artificial aplicada à observação da Terra, a distribuição do conhecimento técnico permanece concentrada em algumas regiões (Yang et al., 2022; Amani et al., 2020). As limitações de transparência também merecem destaque. Parte dos algoritmos e correções automáticas utilizados pelo GEE operam como uma “caixa-preta”, dificultando a auditoria e a explicabilidade dos resultados (Cardoso, 2025). Essa falta de clareza metodológica pode comprometer a reprodutibilidade científica e a robustez das análises, sobretudo em áreas de relevo acidentado, onde estudos apontam limitações nos algoritmos do GEE, especialmente em relação aos ajustes automáticos que afetam a precisão dos resultados (Chen et al., 2021). A confiança excessiva em modelos de aprendizado de máquina sem a devida compreensão de seus mecanismos pode induzir a interpretações equivocadas, especialmente em contextos de tomada de decisão governamental. Além disso, o risco de viés algorítmico precisa ser considerado. Como em outras aplicações de big data, os resultados obtidos no GEE podem refletir e até reforçar desigualdades sociais e espaciais preexistentes, caso os algoritmos sejam treinados com bases de dados enviesadas (Barocas; Selbst, 2016; Kitchin, 2013). Essa problemática torna-se ainda mais crítica quando análises derivadas da

RkJQdWJsaXNoZXIy MjEzNzYz