Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/34453
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2022_JulioEduardoDumont_MatheusVieira_tcc.pdfTrabalho de Conclusão de Curso 16,9 MBAdobe PDFver/abrir
Registro completo
Campo Dublin CoreValorLíngua
dc.contributor.advisorSilva, Jones Yudi Mori Alves da-
dc.contributor.authorDumont, Júlio Eduardo França-
dc.contributor.authorVieira, Matheus Ribeiro de Brito-
dc.identifier.citationDUMONT, Júlio Eduardo França; VIEIRA, Matheus Ribeiro de Brito. Estimação em tempo real de posição e orientação de câmeras inteligentes. 2022. 215 f., il. Trabalho de conclusão de curso (Bacharelado em Engenharia Mecatrônica) — Universidade de Brasília, Brasília, 2022.pt_BR
dc.descriptionTrabalho de conclusão de curso (graduação) — Universidade de Brasília, Faculdade de Tecnologia, 2022.pt_BR
dc.description.abstractCom o advento de novas tecnologias, surge a necessidade de estimar a posição e orientação no espaço de um agente, em condições e locais adversos, como a exploração em solo marciano por rovers e o uso de VANTs bélicos em áreas de conflito. Neste cenário, umas das técnicas mais utilizadas é o uso de câmeras e sensores inerciais. As câmeras fazem parte do sistema de localização baseado em visão computacional, conhecido como odometria visual. Através desse sistema é possível estimar a pose do agente através das mudanças visuais decorridas do movimento, como a intensidade dos pixels e o rastreamento de features. A odometria visual fornece a estimação da trajetória de forma acurada e com baixíssimos erros de posição, além de possibilitar o seu uso em terrenos irregulares e onde o serviço de GPS não é acessível. Todavia, há limitações como necessidade de iluminação no ambiente, cenas com textura e taxa de amostragem limitada. Por outro lado, sensores inerciais como, giroscópios, acelerômetros, e magnetômetros, geralmente integrantes de uma IMU, possibilitam a estimação da posição e orientação do agente com precisão, através da medição da velocidade angular, aceleração, e intensidade do campo magnético terrestre. Tal processo é conhecido como odometria inercial. Diferentemente das câmeras, a IMU não depende das cenas do ambiente e demais características, além de possuir alta taxa de amostragem. Apesar do processo de estimação através dos sensores inerciais ser bastante preciso, existe um acúmulo de erro bastante significativo, não sendo tão confiável para trajetórias longas. Como ambos os processos possuem características complementares, é possível integrá-los em uma única solução, para obter um processo robusto e preciso de estimação. Nesse contexto, este projeto consiste em implementar ambos os algoritmos de odometria visual e odometria inercial em uma plataforma híbrida para a estimação da posição e orientação do agente em tempo real. É realizado um amplo estudo dos principais algoritmos, implementação e teste dos algoritmos mais adequados e análise da influência das condições de teste e fatores internos e externos nos resultados. Além disso, é proposto um estudo de fusão de dados, que mescla ambas as vantagens da câmera e da IMU, para estimar a posição e orientação de um agente com acurácia e erros reduzidos, processo conhecido como odometria visual e inercial.pt_BR
dc.rightsAcesso Abertopt_BR
dc.subject.keywordVisão por computadorpt_BR
dc.subject.keywordSensores inerciaispt_BR
dc.subject.keywordOdometria visualpt_BR
dc.titleEstimação em tempo real de posição e orientação de câmeras inteligentespt_BR
dc.typeTrabalho de Conclusão de Curso - Graduação - Bachareladopt_BR
dc.date.accessioned2023-04-05T13:37:52Z-
dc.date.available2023-04-05T13:37:52Z-
dc.date.submitted2022-05-02-
dc.identifier.urihttps://bdm.unb.br/handle/10483/34453-
dc.language.isoPortuguêspt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.pt_BR
dc.description.abstract1With the advent of new technologies, arises the necessity of estimating position and orienta tion of an agent in adverse environmental conditions, such as the exploration of Martian soil by rovers, and the usage of combat drones in warzones. In this case, one of the most common techniques to attain such estimates in the aforementioned environments, is by employing cameras and inertial sensors to derive a robust solution. Cameras are an integral part of the computer vision-based localization system, known as visual odometry system. This system enables to estimate the agent’s pose through the perceived variations in between different image frames captured by the cameras, such as pixel intensity and features. The visual odometry yields an accurate low-error position estimation, in addition to enabling estimation on uneven terrain and GPS denied environments. However, there are limitations, such as good ambient lighting, scenes with texture, and limited sample rate. On the other hand, inertial sensors such as, gyroscopes, accelerometers, and magnetometers, usually integral parts of an inertial measurement unit, IMU, enable an accurate estimate of the agent’s position and orientation, through angular velocity, acceleration, and magnetic field intensity measurements. Such estimation process is known as inertial odometry. Unlike cameras, the IMU operation is not affected by the scene’s features and further environmental characteristics, also, it has a relatively high sample rate. Even though the estimation process through inertial sensors is fairly accurate, there’s a significant error accumulation in the process, therefore, it is not so reliable for lengthy trajectories. As both systems have comple mentary features, it’s possible to integrate them into a unique solution, to yield a robust and accurate estimation process. In such context, this project aims to implement both the visual, and inertial odometry processes in a hybrid platform to allow real-time estimation of an agent’s orientation and position. A broad study on the most relevant algorithms is carried out, also, the algorithms that were considered the most suitable for the application are implemented and tested, lastly, an analysis on the effects of test conditions, external and internal factors on the results is carried out. Furthermore, a study on data fusion is proposed to enhance the process by merging the visual and inertial odometry algorithms to yield a low-error high-accuracy estimation process known and visual inertial odometry.pt_BR
Aparece na Coleção:Engenharia Mecatrônica



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.