Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/40684
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2024_PedroLucasSilvaHagaTorres_tcc.pdf9,75 MBAdobe PDFver/abrir
Título: Detecção de objetos para identificar espécimes de macaúba e babaçu por meio de imagens de drone utilizando as arquiteturas YOLOv4 e YOLOv9
Autor(es): Torres, Pedro Lucas Silva Haga
Orientador(es): Borges, Díbio Leandro
Assunto: Drone
Macaúba
Sensoriamento remoto
Data de apresentação: 16-Set-2024
Data de publicação: 26-Nov-2024
Referência: TORRES, Pedro Lucas Silva Haga. Detecção de objetos para identificar espécimes de macaúba e babaçu por meio de imagens de drone utilizando as arquiteturas YOLOv4 e YOLOv9. 2024. 132 f., il. Trabalho de Conclusão de Curso (Licenciatura em Computação) — Universidade de Brasília, Brasília, 2024.
Resumo: A macaúba (Acrocomia intumenscens) tem potencial para se tornar um recurso de grande valor no framework da economia sustentável no Brasil. Neste trabalho foram desenvolvidas duas soluções para detecção de palmeiras macaúba e babaçu (Attalea speciosa) em ambientes naturais por meio de imagens obtidas a partir de UAV e algoritmos de deep learning. As soluções se baseiam nas arquiteturas YOLOv4 e YOLOv9, as quais obtiveram mAP@0.50 de 75, 63%±3, 29% (média ± desvio padrão) e 72, 7%±2, 3%, respectivamente, avaliadas pelo processo de validação cruzada k-fold. Os resultados obtidos apontam para a facilidade em distinguir essas espécies por meio da metodologia proposta, contudo, podem ser feitas melhorias no processo de anotação das imagens, ou na divisão dos ortomosaicos para produção dessas imagens utilizadas no treinamento dos algoritmos utilizados.
Abstract: The macauba palm (Acrocomia intumenscens) has potential to become a high-value resource within the framework of Brazil’s sustainable economy. This study evaluates two convolutional neural networks (CNN) architectures for the tasks of identifying and differentiating specimens of macauba and babassu (Attalea speciosa) in their natural environments in the context of object detection and UAV-based imagery. The evaluated CNN architectures were YOLOv4 and YOLOv9, which achieved an mAP score of 75.63%±3.29% (average ± standard deviation) and 72.7% ± 2.3%, respectively, as evaluated through kfold cross-validation. The results indicate the effectiveness of the proposed methodology in distinguishing these species, although there are improvements to be made in the image annotation process, or the process of dividing the orthomosaics that produced the images used in the training phase.
Informações adicionais: Trabalho de Conclusão de Curso (graduação) — Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2024.
Licença: A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.
Aparece na Coleção:Computação



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.