Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/43324
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2024_FernandoCezarRibeiroJunior_tcc.pdf4,01 MBAdobe PDFver/abrir
Título: Impactos da remoção do fundo na classificação de patologias vegetais por Redes Neurais Convolucionais
Autor(es): Ribeiro Junior, Fernando Cezar
Orientador(es): Romariz, Alexandre Ricardo Soares
Assunto: Aprendizado de máquina
Imagens - classificação
Processamento de imagens - técnicas digitais
Data de apresentação: 10-Out-2024
Data de publicação: 13-Jan-2026
Referência: RIBEIRO JUNIOR, Fernando Cezar. Impactos da remoção do fundo na classificação de patologias vegetais por Redes Neurais Convolucionais. 2024. 90 f., il. Trabalho de Conclusão de Curso (Bacharelado em Engenharia Elétrica) — Universidade de Brasília, Brasília, 2024.
Resumo: Este trabalho tem como foco a melhoria de um classificador de patologias vegetais, visando sua aplicação prática em ambientes reais, como o campo. O classificador tem como objetivo identificar a espécie de planta e, caso esteja contaminada, diagnosticar qual é a doença presente. O principal objetivo deste trabalho é investigar o impacto da remoção do fundo das imagens na acurácia de um classificador de doenças vegetais desenvolvido com redes neurais convolucionais. Para atingir esse objetivo, foi elaborado um algoritmo que faz uso da rede neural U2-net, projetada para realizar a segmentação eficiente das imagens, removendo o fundo e destacando o objeto de interesse, neste caso a folha. Além de replicar e comparar o trabalho de referência com os modelos treinados neste estudo, foram criados novos conjuntos de dados com imagens reais para testar os modelos. Os testes realizados com o banco de dados composto por imagens reais demonstraram que a abordagem de retirada de fundo teve um melhor resultado em comparação ao modelo de referência, utilizando os mesmos parâmetros. Com a remoção do fundo, obtivemos uma acurácia de 47,02% para o problema com todas as 34 classes (contra 21,05% alcançada pelo modelo de referência), chegando a 60,34% em uma base com um menor número de classes.
Abstract: This work focuses on improving a classifier for plant pathologies, aiming for its practical application in real environments, such as the field. The main objective is to investigate the impact of background removal from images on the accuracy of a plant disease classifier developed with convolutional neural networks. To achieve this objective, an algorithm was developed using the U2-net neural network, designed to perform efficient image segmentation by removing the background and highlighting the object of interest, in this case, the leaf. In addition to replicating and comparing the reference work with the models trained in this study, new datasets with real images were created to test the models. Tests conducted with the database composed of real images showed that the background removal approach achieved better results compared to the reference model, using the same parameters. With background removal, We achieved an accuracy of 47.02% for the problem with all 34 classes (compared to 21.05% reached by the reference model), reaching 60.34% in a dataset with a smaller number of classes.
Informações adicionais: Trabalho de Conclusão de Curso (graduação) — Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2024.
Licença: A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.
Aparece na Coleção:Engenharia Elétrica



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.