Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/37043
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2023_RonaldCesarDiasDeOliveira_tcc.pdf45,76 MBAdobe PDFver/abrir
Registro completo
Campo Dublin CoreValorLíngua
dc.contributor.advisorBorges, Díbio Leandro-
dc.contributor.authorOliveira, Ronald Cesar Dias de-
dc.identifier.citationOLIVEIRA, Ronald Cesar Dias de. Avaliação de modelos YOLO para detectar percevejos em plantações de soja. 2023. 55 f., il. Trabalho de Conclusão de Curso (Bacharelado em Engenharia da Computação) — Universidade de Brasília, Brasília, 2023.pt_BR
dc.descriptionTrabalho de Conclusão de Curso (graduação) — Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2023.pt_BR
dc.description.abstractDevido à crescente demanda por técnicas de agricultura de precisão para melhor aproveitamento dos recursos disponíveis em campo, a aplicação de algoritmos de visão computacional é uma solução que trás uma ampla vantagem para auxiliar a detecção de pestes, possibilitando um tratamento mais eficaz e menos prejudicial à saúde ambiental. Com base nessa afirmativa, este trabalho consiste em avaliar o modelo YOLO4 e comparar com as versões posteriores YOLOR, YOLOv5 e YOLOv7, que utilizam redes neurais convolucionais para detecção de objetos em tempo real. Estes foram treinados e utilizados para detectar Percevejos em imagens e vídeos em uma plantação de soja. Assim, utilizando métricas estatísticas, foram feitas considerações para definir o mais adequado modelo de acordo com a situação presente. Por meio de parceria com a Embrapa, foi utilizada uma base de dados que através de técnicas de aumento de dados foi possível transformar 77 imagens em 600. Dessa forma, o melhor modelo foi o YOLO v4 ao obter 99% de mAP@0.50, 99% de Precisão e 99% de Revocação em 60 imagens de validação.pt_BR
dc.rightsAcesso Abertopt_BR
dc.subject.keywordAgricultura de precisãopt_BR
dc.subject.keywordPragas agrícolas - controlept_BR
dc.subject.keywordAprendizado de máquinapt_BR
dc.titleAvaliação de modelos YOLO para detectar percevejos em plantações de sojapt_BR
dc.typeTrabalho de Conclusão de Curso - Graduação - Bachareladopt_BR
dc.date.accessioned2023-12-12T10:45:07Z-
dc.date.available2023-12-12T10:45:07Z-
dc.date.submitted2023-02-15-
dc.identifier.urihttps://bdm.unb.br/handle/10483/37043-
dc.language.isoPortuguêspt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.pt_BR
dc.description.abstract1Due to the growing demand for precision agriculture techniques to better utilize available resources in the field, the application of computer vision algorithms is a solution that brings a wide advantage to help the detection of pests, enabling a more effective and less harmful treatment to environmental health. Based on this statement, this work consists of evaluating the model YOLO4 and comparing to the posterior versions YOLOR, YOLOv5 and YOLOv7, which use convolutional neural networks for object detection in real time. These were trained and used to detect brown bugs on images and videos of a soybean plantation. Thus, it was used statistical metrics considerations to define the most appropriate model according to the present situation. Through a partnership with Embrapa, a database was used which, through data augmentation techniques it was possible to transform 77 images into 600. The best model was YOLOv4, obtaining 99% of mAP@0.50, 99% of Precision and 99% of Recall on 60 validation images.pt_BR
Aparece na Coleção:Engenharia da Computação



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.