Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/42004
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2025_BrenoLima_PedroMacedo_tcc.pdf4,61 MBAdobe PDFver/abrir
Título: Tradução inteligente da soletração em libras com redes neurais recorrentes
Autor(es): Macedo, Pedro Rodrigues Diógenes
Lima, Breno Costa Avelino
Orientador(es): Lamar, Marcus Vinicius
Assunto: Tecnologia assistiva
Redes neurais (Computação)
Língua brasileira de sinais
Data de apresentação: 25-Jul-2025
Data de publicação: 23-Out-2025
Referência: MACEDO, Pedro Rodrigues Diógenes; LIMA, Breno Costa Avelino. Tradução inteligente da soletração em libras com redes neurais recorrentes. 2025. 72 f., il. Trabalho de conclusão de curso (Bacharelado em Ciência da Computação) — Universidade de Brasília, Brasília, 2025.
Resumo: Este trabalho propõe um sistema experimental de tradução automática da soletração em Língua Brasileira de Sinais (LIBRAS) para o português escrito. A abordagem utiliza redesneuraisrecorrentesdotipoElman,integradasabibliotecasdevisãocomputacionale modelosdelinguagem(Large Language Model (LLM)).Osistemacapturagestosmanuais em vídeo, aplica algoritmos para detecção das articulações das mãos, realiza filtragem de ruídoecorrigeasaídacomapoiodosLLMs,gerandoapalavramaisprovável. Aavaliação foi realizada com vídeos de um usuário soletrando o alfabeto manual de LIBRAS. Após o treinamento do modelo neural personalizado, o sistema foi testado na soletração de um conjunto de palavras, alcançando acurácia entre 61% e 89%. Como próximos passos, propõe-se ampliar o sistema para reconhecer sinais lexicais completos, incluir expressões faciais e corporais, e evoluir para uma ferramenta mais robusta de apoio à comunicação entre surdos e ouvintes.
Abstract: Thisworkproposesanexperimentalsystemfortheautomatictranslationoffingerspelling in Brazilian Sign Language (LIBRAS) into written Portuguese. The approach employs Elman-type recurrent neural networks, integrated with computer vision libraries and Large Language Models (LLMs). The system captures hand gestures in video, applies algorithms to detect hand joint positions, filters noise, and refines the output using LLMs to generate the most likely word. Evaluation was conducted using videos of a user fingerspelling the LIBRAS manual alphabet. After training a personalized neural model, the system was tested on a set of words, achieving accuracy ranging from 61% to 89%. As future work, the system aims to expand to recognize complete lexical signs, incorporate facialandbodyexpressions,andevolveintoamorerobusttooltosupportcommunication between deaf and hearing individuals.
Informações adicionais: Trabalho de Conclusão de Curso (graduação) — Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2025.
Licença: A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.
Aparece na Coleção:Ciência da Computação



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.