Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/42663
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2025_GuilhermeDeMoraisRichter_tcc.pdf2,03 MBAdobe PDFver/abrir
Registro completo
Campo Dublin CoreValorLíngua
dc.contributor.advisorBraz, Fabricio Ataides-
dc.contributor.authorRichter, Guilherme de Morais-
dc.identifier.citationRICHTER, Guilherme de Morais. Alavancando modelo massivo de linguagem para um domínio do esporte por meio de RAG e fine-tuning. 2025. 81 f., il. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Software) — Universidade de Brasília, Brasília, 2025.pt_BR
dc.descriptionTrabalho de Conclusão de Curso (graduação) — Universidade de Brasília, Faculdade UnB Gama, 2025.pt_BR
dc.description.abstractEste trabalho investigou o aprimoramento de Modelos Massivos de Linguagem (LLM, do inglês Large Language Models) para tarefas específicas de Processamento de Linguagem Natural (PLN) aplicadas ao domínio esportivo. Foram avaliadas técnicas como RetrievalAugmented Generation (RAG) e ajuste fino supervisionado (fine-tuning), tendo como base dados estruturados obtidos da plataforma Sofascore relacionados ao futebol. Os resultados mostraram que a combinação dessas técnicas melhora significativamente o desempenho dos modelos, proporcionando respostas mais precisas, contextualizadas e semanticamente coerentes em comparação ao uso isolado dos modelos pré-treinados. Em particular, o ajuste fino com simulação de recuperação semântica (RAFT) demonstrou maior eficiência em tarefas analíticas complexas, como avaliação de desempenho individual, coletivo e resposta a perguntas sobre tabelas hierárquicas.pt_BR
dc.rightsAcesso Abertopt_BR
dc.subject.keywordLinguagem naturalpt_BR
dc.subject.keywordInteligência artificialpt_BR
dc.titleAlavancando modelo massivo de linguagem para um domínio do esporte por meio de RAG e fine-tuningpt_BR
dc.typeTrabalho de Conclusão de Curso - Graduação - Bachareladopt_BR
dc.date.accessioned2025-11-28T16:59:47Z-
dc.date.available2025-11-28T16:59:47Z-
dc.date.submitted2025-07-29-
dc.identifier.urihttps://bdm.unb.br/handle/10483/42663-
dc.language.isoPortuguêspt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.pt_BR
dc.description.abstract1This work investigated the enhancement of Large Language Models (LLMs) for specific Natural Language Processing (NLP) tasks in the sports domain. Techniques such as Retrieval-Augmented Generation (RAG) and supervised fine-tuning were evaluated using structured football data obtained from the Sofascore platform. The results demonstrated that combining these techniques significantly improves model performance, enabling more accurate, contextualized, and semantically coherent responses compared to the isolated use of pre-trained models. In particular, fine-tuning with simulated semantic retrieval RAFT) proved to be highly effective in complex analytical tasks, such as evaluating individual and team performance, and answering hierarchical table-based questions.pt_BR
Aparece na Coleção:Engenharia de Software



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.