Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/34512
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2022_MatheusSilvaPereira_tcc.pdfTrabalho de conclusão de curso4,72 MBAdobe PDFver/abrir
Título: Reconhecimento de gestos estáticos da mão a partir de rede neural artificial e coordenadas do esqueleto
Autor(es): Pereira, Matheus Silva
Orientador(es): Aguiar, Carla Silva Rocha
Assunto: Redes neurais (Computação)
Visão por computador
Data de apresentação: 5-Dez-2022
Data de publicação: 11-Abr-2023
Referência: PEREIRA, Matheus Silva. Reconhecimento de gestos estáticos da mão a partir de rede neural artificial e coordenadas do esqueleto. 2022. 67 f., il. Trabalho de conclusão de curso (Bacharelado em Engenharia de Software) — Universidade de Brasília, Brasília, 2022.
Resumo: A visão computacional nasceu de uma necessidade do homem de fazer com que as máquinas pudessem resolver problemas complexos. Porém, conceder o sentindo da visão às máquinas não é tarefa simples, pois existem algumas dificuldades inerentes ao processo. A fim de contorná-las, vários métodos, abordagens e tecnologias foram desenvolvidas com intuito de distinguir características importantes dos objetos a serem identificados e/ou rastreados. Tendo a tarefa de reconhecimento de gestos estáticos da mão em foco, abordagens baseadas em esqueleto mostram-se especialmente úteis, já que fornecem informações altamente relevantes para a execução da tarefa. Diante disso, o objetivo deste trabalho foi reconhecer gestos estáticos da mão através de uma rede neural do tipo MLP tendo como entrada coordenadas 3D dos pontos do esqueleto. Para isso, um dataset da Linguagem de Sinais Americana (ASL) foi utilizado para o treinamento e avaliação da rede e, um outro produzido pelo autor, foi usado para teste do modelo. Os resultados obtidos atestam a importância dessa abordagem, uma vez que obteve-se uma performance com acurácias de 98% e 100% no reconhecimento dos gestos (sinais) no dataset da ASL utilizado e no do autor, respectivamente.
Abstract: Computer vision was born out of a human need to make machines able to solve complex problems. However, granting the sense of vision to machines is not a simple task, as there are some difficulties inherent to the process. In order to circumvent them, several methods, approaches and technologies were developed in order to distinguish important characteristics of the objects to be identified and/or tracked. With the task of recognizing static hand gestures in focus, skeleton-based approaches prove to be especially useful, as they provide highly relevant information for performing the task. Therefore, the objective of this work was to recognize static hand gestures through a neural network MLP, having as input 3D coordinates of the skeletal joints. For this, an American Sign Language (ASL) dataset was used to train and evaluate the network, and another one produced by the author was used to test the model. The results obtained attest to the importance of this approach, since we obtained a performance with accuracies of 98% and 100% in the recognition of gestures (signs) in the used ASL dataset and in the author’s, respectively.
Informações adicionais: Trabalho de conclusão de curso (graduação) — Universidade de Brasília, Faculdade UnB Gama, 2022.
Licença: A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.
Aparece na Coleção:Engenharia de Software



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.