Campo Dublin Core | Valor | Língua |
dc.contributor.advisor | Silva, Jones Yudi Mori Alves da | - |
dc.contributor.author | Dumont, Júlio Eduardo França | - |
dc.contributor.author | Vieira, Matheus Ribeiro de Brito | - |
dc.identifier.citation | DUMONT, Júlio Eduardo França; VIEIRA, Matheus Ribeiro de Brito. Estimação em tempo real de posição e orientação de câmeras inteligentes. 2022. 215 f., il. Trabalho de conclusão de curso (Bacharelado em Engenharia Mecatrônica) — Universidade de Brasília, Brasília, 2022. | pt_BR |
dc.description | Trabalho de conclusão de curso (graduação) — Universidade de Brasília, Faculdade de Tecnologia, 2022. | pt_BR |
dc.description.abstract | Com o advento de novas tecnologias, surge a necessidade de estimar a posição e orientação no
espaço de um agente, em condições e locais adversos, como a exploração em solo marciano
por rovers e o uso de VANTs bélicos em áreas de conflito. Neste cenário, umas das técnicas
mais utilizadas é o uso de câmeras e sensores inerciais.
As câmeras fazem parte do sistema de localização baseado em visão computacional, conhecido como odometria visual. Através desse sistema é possível estimar a pose do agente
através das mudanças visuais decorridas do movimento, como a intensidade dos pixels e
o rastreamento de features. A odometria visual fornece a estimação da trajetória de forma
acurada e com baixíssimos erros de posição, além de possibilitar o seu uso em terrenos
irregulares e onde o serviço de GPS não é acessível. Todavia, há limitações como necessidade
de iluminação no ambiente, cenas com textura e taxa de amostragem limitada.
Por outro lado, sensores inerciais como, giroscópios, acelerômetros, e magnetômetros, geralmente integrantes de uma IMU, possibilitam a estimação da posição e orientação do agente
com precisão, através da medição da velocidade angular, aceleração, e intensidade do campo
magnético terrestre. Tal processo é conhecido como odometria inercial. Diferentemente das
câmeras, a IMU não depende das cenas do ambiente e demais características, além de possuir
alta taxa de amostragem. Apesar do processo de estimação através dos sensores inerciais ser
bastante preciso, existe um acúmulo de erro bastante significativo, não sendo tão confiável
para trajetórias longas. Como ambos os processos possuem características complementares,
é possível integrá-los em uma única solução, para obter um processo robusto e preciso de
estimação.
Nesse contexto, este projeto consiste em implementar ambos os algoritmos de odometria
visual e odometria inercial em uma plataforma híbrida para a estimação da posição e orientação do agente em tempo real. É realizado um amplo estudo dos principais algoritmos,
implementação e teste dos algoritmos mais adequados e análise da influência das condições
de teste e fatores internos e externos nos resultados. Além disso, é proposto um estudo
de fusão de dados, que mescla ambas as vantagens da câmera e da IMU, para estimar a
posição e orientação de um agente com acurácia e erros reduzidos, processo conhecido como
odometria visual e inercial. | pt_BR |
dc.rights | Acesso Aberto | pt_BR |
dc.subject.keyword | Visão por computador | pt_BR |
dc.subject.keyword | Sensores inerciais | pt_BR |
dc.subject.keyword | Odometria visual | pt_BR |
dc.title | Estimação em tempo real de posição e orientação de câmeras inteligentes | pt_BR |
dc.type | Trabalho de Conclusão de Curso - Graduação - Bacharelado | pt_BR |
dc.date.accessioned | 2023-04-05T13:37:52Z | - |
dc.date.available | 2023-04-05T13:37:52Z | - |
dc.date.submitted | 2022-05-02 | - |
dc.identifier.uri | https://bdm.unb.br/handle/10483/34453 | - |
dc.language.iso | Português | pt_BR |
dc.rights.license | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta. | pt_BR |
dc.description.abstract1 | With the advent of new technologies, arises the necessity of estimating position and orienta tion of an agent in adverse environmental conditions, such as the exploration of Martian
soil by rovers, and the usage of combat drones in warzones. In this case, one of the most
common techniques to attain such estimates in the aforementioned environments, is by
employing cameras and inertial sensors to derive a robust solution.
Cameras are an integral part of the computer vision-based localization system, known
as visual odometry system. This system enables to estimate the agent’s pose through the
perceived variations in between different image frames captured by the cameras, such as pixel
intensity and features. The visual odometry yields an accurate low-error position estimation,
in addition to enabling estimation on uneven terrain and GPS denied environments. However,
there are limitations, such as good ambient lighting, scenes with texture, and limited sample
rate.
On the other hand, inertial sensors such as, gyroscopes, accelerometers, and magnetometers,
usually integral parts of an inertial measurement unit, IMU, enable an accurate estimate of
the agent’s position and orientation, through angular velocity, acceleration, and magnetic
field intensity measurements. Such estimation process is known as inertial odometry. Unlike
cameras, the IMU operation is not affected by the scene’s features and further environmental
characteristics, also, it has a relatively high sample rate. Even though the estimation process
through inertial sensors is fairly accurate, there’s a significant error accumulation in the
process, therefore, it is not so reliable for lengthy trajectories. As both systems have comple mentary features, it’s possible to integrate them into a unique solution, to yield a robust and
accurate estimation process.
In such context, this project aims to implement both the visual, and inertial odometry
processes in a hybrid platform to allow real-time estimation of an agent’s orientation and
position. A broad study on the most relevant algorithms is carried out, also, the algorithms
that were considered the most suitable for the application are implemented and tested, lastly,
an analysis on the effects of test conditions, external and internal factors on the results is
carried out. Furthermore, a study on data fusion is proposed to enhance the process by
merging the visual and inertial odometry algorithms to yield a low-error high-accuracy
estimation process known and visual inertial odometry. | pt_BR |
Aparece na Coleção: | Engenharia Mecatrônica
|