Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/39101
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2023_EricDeCastro_GabrielDeCastro_tcc.pdf14,43 MBAdobe PDFver/abrir
Título: Reconhecimento de emoções a partir de expressões faciais pelo robô NAO
Autor(es): Castro, Eric do Vale de
Castro, Gabriel Guimarães Almeida de
Orientador(es): Baptista, Roberto de Souza
Assunto: Robótica
Rede neural recorrente
Processamento de imagens - técnicas digitais
Data de apresentação: 15-Fev-2023
Data de publicação: 2-Jul-2024
Referência: CASTRO, Eric do Vale de; CASTRO, Gabriel Guimarães Almeida de. Reconhecimento de emoções a partir de expressões faciais pelo robô NAO. 2023. 87 f., il. Trabalho de conclusão de curso (Bacharelado em Engenharia Mecatrônica) — Universidade de Brasília, Brasília, 2023.
Resumo: As expressões faciais são muito importantes para a comunicação não verbal, e assim, como o ditado popular: "Um gesto fala mais do que mil palavras". Baseado neste dito seria possível criar uma rede neural convolucional capaz de de classificar algumas emoções a partir da face dos usuários, sendo elas: Raiva, Nojo, Medo, Felicidade, Neutralidade, tristeza e Surpresa. Com isso, o classificador sendo aplicado na plataforma robótica NAO adiciona uma nova capacidade para realizar outras aplicações com o mesmo. O trabalho apresentado neste manuscrito terá uma metodologia de criar um classificador de emoções com a algumas estratégias desde uma rede convolucional de 4 camadas e do MobileNet, e todas elas serão testadas de forma funcional na plataforma robótica. A melhor estratégia se apresentou ser o do MobileNet, que com o uma média 66% de precisão baseado no banco de imagens de validação. E, esta rede aplicada no próprio robô teve resultados iguais a do treinamento, como a neutralidade, tristeza e alegria teve em média 81% de acerto. Apesar de não apresentar uma taxa nada satisfatória em relação a emoção de nojo, porém, para o restante das emoções são possíveis de serem trabalhadas e analisadas para um relatório de emoções numa sessão de terapia.
Abstract: Facial expressions are very important for nonverbal communication, and as the popular saying goes: "A gesture speaks louder than a thousand words". Based on this saying, it would be possible to create a convolutional neural network capable of classifying some emotions from the users’ faces, namely: Anger, Disgust, Fear, Happiness, Neutrality, Sadness, and Surprise. With this, the classifier applied to the NAO robotic platform adds a new ability to perform other applications with it. The work presented in this manuscript will have a methodology of creating an emotion classifier with some strategies including a 4 layers convolutional network and the MobileNet, and all functionally tested on the robotic platform. The best strategy was using the MobileNet, with an average of 66% accuracy based on the validation image database. And, this network applied to the robot itself showed results equal to those of the training, such as neutrality, sadness, and joy, with an average accuracy of 81%. Despite not presenting a satisfactory rate regarding the emotion of disgust, the rest of the emotions can be worked on and analyzed for an emotion report in a therapy session.
Informações adicionais: Trabalho de conclusão de curso (graduação) — Universidade de Brasília, Faculdade de Tecnologia, Curso de Graduação em Engenharia de Controle e Automação, 2023.
Licença: A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.
Aparece na Coleção:Engenharia Mecatrônica



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.