329 XXXII MOSTRA UNISINOS DE INICIAÇÃO CIENTÍFICA E TECNOLÓGICA De 29/09/2025 a 03/10/2025 Unisinos São Leopoldo e Porto Alegre complexidade elevada, exigindo múltiplas etapas de raciocínio para chegar à resposta final. Ainda assim, o TableLLM superou o GPT- -4o-mini em todos os datasets, especialmente no TabMWP, em que o último não acertou nenhuma resposta numérica. Em relação à segunda questão, a pesquisa na literatura identificou que os formatos DFLoader e JSON são os mais eficazes para extração de fatos e para tarefas que envolvem transformação de tabelas (Fang et al., 2024). Além disso, foi observado que janelas de contexto maiores prejudicam a capacidade das LLMs, sendo recomendados contextos contendo tabelas com até 500 tokens, de acordo com os experimentos realizados nesta pesquisa e no estudo que originou o TableLLM (Zhang et al., 2025). Assim, embora o TableLLM apresente limitações, para extração de valores numéricos e resolução de problemas matemáticos, os resultados sugerem um desempenho satisfatório em cenários que não exigem alta precisão nos valores e textos gerados. Ademais, para trabalhos futuros pode ser feita a validação do modelo em dados tabulares de fenótipos digitais aplicados à saúde mental, ampliando um estudo anterior do nosso grupo de pesquisa sobre análise de sentimentos (Henz et al., 2025). Palavras-chave: respostas a perguntas; Large language models; Problemas matemáticos; Extração de informações; Dados tabulares
RkJQdWJsaXNoZXIy MjEzNzYz