Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/25214
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2019_ArthurJaberCostato_tcc.pdf4,29 MBAdobe PDFver/abrir
Registro completo
Campo Dublin CoreValorLíngua
dc.contributor.advisorBauchspiess, Adolfo-
dc.contributor.authorCostato, Arthur Jaber-
dc.identifier.citationCOSTATO, Arthur Jaber. Interface homem-máquina para automação predial baseada em gestos. 2019. 81 f. Trabalho de conclusão de curso (Bacharelado em Engenharia Mecatrônica)—Universidade de Brasília, Brasília, 2019.pt_BR
dc.descriptionTrabalho de conclusão de curso (graduação)—Universidade de Brasília, Faculdade de Tecnologia, Curso de Graduação em Engenharia de Controle e Automação, 2019.pt_BR
dc.description.abstractEm automação predial, já existem algumas interfaces inteligentes com o usuário. No entanto, interfaces amigáveis e intuitivas de serem utilizadas ainda estão em desenvolvimento. A mais difundida atualmente é a de comandos por voz. Embora ela seja intuitiva, ainda não é muito amigável, pois não entende comandos muito complexos. Portanto, este trabalho buscou-se encontrar uma nova interface com o usuário que fosse mais intuitiva e fácil de se utilizar, principalmente pela população mais idosa ou com problemas cognitivos. Assim, percebeu-se que o controle por gestos de apontamento é uma interface que atende a estes requisitos. Devido a esforços computacionais envolvidas e confiabilidade das heurísticas necessárias para detectar a direção em que as mãos de uma pessoa estão apontando, decidiu-se confeccionar uma vareta com padrões visuais melhores estruturados para ser detectada. Com ela, o usuário poderá apontar para o objeto que desejará comandar. Um botão é utilizado para acionar. Neste trabalho, desenvolveu-se um algoritmo rápido capaz de identificar tal vareta em diferentes condições de iluminação. Utilizou-se a transformação para o espaço de cores CIE LAB para melhor extração das cores da vareta. Também foram utilizadas duas câmeras sem utilizar reconstrução 3D, através de uma abordagem que correlaciona a projeção da vareta nas duas imagens. Por fim, foram testados diferentes cenários e obteve-se uma média de 1,6 tentativas para encontrar a vareta nas imagens e 1,3 tentativas para encontrar o objeto apontado por ela.pt_BR
dc.rightsAcesso Abertopt_BR
dc.subject.keywordAutomação predialpt_BR
dc.subject.keywordInterfaces de usuário (Sistema de computador)pt_BR
dc.subject.keywordInteração homem-máquinapt_BR
dc.titleInterface homem-máquina para automação predial baseada em gestospt_BR
dc.typeTrabalho de Conclusão de Curso - Graduação - Bachareladopt_BR
dc.date.accessioned2020-07-30T18:23:26Z-
dc.date.available2020-07-30T18:23:26Z-
dc.date.submitted2019-07-11-
dc.identifier.urihttps://bdm.unb.br/handle/10483/25214-
dc.language.isoPortuguêspt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.pt_BR
dc.description.abstract1Building automation already uses many smart interfaces. However, more user-friendly and intuitive interfaces are still needed. Voice commands are widespread. Although intuitive, it is still not very friendly, as it does not understand complex commands. Therefore, this work looks for a new user interface that is more intuitive and easy to use, especially for the elder population. Control by gestures meets these intuitive, userfriendly requirement. Due to the computational complexities involved and the reliability of the heuristics needed to detect the direction a person's hands is pointing, it was decided to make a rod with structured visual pattern to be detected. Using it, the user can point to the equipment he wants to command. A button is used as actiontrigger. A fast algorithm, capable of identifying such a rod in different lighting conditions was developed. CIE LAB color space was used for better color extraction of the rod pattern. In this work two cameras where used without using 3D reconstruction, an approach that matches the projected rod in each image. Finally, it was tested in different scenarios giving an average rod detection of 1.6 trials and an average object detection of 1.3 trials.pt_BR
Aparece na Coleção:Engenharia Mecatrônica



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.