Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/42663
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2025_GuilhermeDeMoraisRichter_tcc.pdf2,03 MBAdobe PDFver/abrir
Título: Alavancando modelo massivo de linguagem para um domínio do esporte por meio de RAG e fine-tuning
Autor(es): Richter, Guilherme de Morais
Orientador(es): Braz, Fabricio Ataides
Assunto: Linguagem natural
Inteligência artificial
Data de apresentação: 29-Jul-2025
Data de publicação: 28-Nov-2025
Referência: RICHTER, Guilherme de Morais. Alavancando modelo massivo de linguagem para um domínio do esporte por meio de RAG e fine-tuning. 2025. 81 f., il. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Software) — Universidade de Brasília, Brasília, 2025.
Resumo: Este trabalho investigou o aprimoramento de Modelos Massivos de Linguagem (LLM, do inglês Large Language Models) para tarefas específicas de Processamento de Linguagem Natural (PLN) aplicadas ao domínio esportivo. Foram avaliadas técnicas como RetrievalAugmented Generation (RAG) e ajuste fino supervisionado (fine-tuning), tendo como base dados estruturados obtidos da plataforma Sofascore relacionados ao futebol. Os resultados mostraram que a combinação dessas técnicas melhora significativamente o desempenho dos modelos, proporcionando respostas mais precisas, contextualizadas e semanticamente coerentes em comparação ao uso isolado dos modelos pré-treinados. Em particular, o ajuste fino com simulação de recuperação semântica (RAFT) demonstrou maior eficiência em tarefas analíticas complexas, como avaliação de desempenho individual, coletivo e resposta a perguntas sobre tabelas hierárquicas.
Abstract: This work investigated the enhancement of Large Language Models (LLMs) for specific Natural Language Processing (NLP) tasks in the sports domain. Techniques such as Retrieval-Augmented Generation (RAG) and supervised fine-tuning were evaluated using structured football data obtained from the Sofascore platform. The results demonstrated that combining these techniques significantly improves model performance, enabling more accurate, contextualized, and semantically coherent responses compared to the isolated use of pre-trained models. In particular, fine-tuning with simulated semantic retrieval RAFT) proved to be highly effective in complex analytical tasks, such as evaluating individual and team performance, and answering hierarchical table-based questions.
Informações adicionais: Trabalho de Conclusão de Curso (graduação) — Universidade de Brasília, Faculdade UnB Gama, 2025.
Licença: A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.
Aparece na Coleção:Engenharia de Software



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.