Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/39225
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2023_LuisHumbertoSenno_DavidChaterlard_tcc.pdf9,26 MBAdobe PDFver/abrir
Registro completo
Campo Dublin CoreValorLíngua
dc.contributor.advisorVidal, Flávio de Barros-
dc.contributor.authorSenno, Luís Humberto Chaves-
dc.contributor.authorChatelard, David Fanchic-
dc.identifier.citationSENNO, Luís Humberto Chaves; CHATELARD, David Fanchic. Detecção e reconhecimento de resíduos sólidos em ambientes não-estruturados utilizando modelos de aprendizado profundo. 2023. 55 f., il. Trabalho de conclusão de curso (Bacharelado em Engenharia Mecatrônica) — Universidade de Brasília, Brasília, 2023.pt_BR
dc.descriptionTrabalho de conclusão de curso (graduação) — Universidade de Brasília, Faculdade de Tecnologia, 2023.pt_BR
dc.description.abstractA Inteligência Artificial (IA) desempenha um papel cada vez mais crucial na área da sustentabilidade, oferecendo soluções inovadoras e ajudando a enfrentar os desafios ambientais. Nesta linha, este trabalho tem como objetivo apresentar o desenvolvimento de uma metodologia para realizar a detecção e reconhecimento de resíduos sólidos a partir de imagens. Para isso, foram utilizados conjuntos de dados contendo diversas imagens de resíduos sólidos que estão disponíveis publicamente, sendo o principal deles o conjunto de imagens da Trash Annotations in Context (TACO) que possui 60 tipos de resíduos sólidos distintos. Além do treinamento no conjunto de imagens, foi realizada a comparação entre os principais modelos de aprendizagem profunda da arquitetura You Only Look Once (YOLO) versão 7, aplicando técnicas de otimização (transferência de aprendizagem e aumento de dados manuais e artificiais). Dentre os resultados obtidos, estes comparando com trabalhos do estado-da-arte, alcançaram valores de melhorias de até 119% para o mesmo conjunto de imagens da base TACO.pt_BR
dc.rightsAcesso Abertopt_BR
dc.subject.keywordInteligência artificialpt_BR
dc.subject.keywordResíduos sólidospt_BR
dc.subject.keywordSustentabilidadept_BR
dc.titleDetecção e reconhecimento de resíduos sólidos em ambientes não-estruturados utilizando modelos de aprendizado profundopt_BR
dc.typeTrabalho de Conclusão de Curso - Graduação - Bachareladopt_BR
dc.date.accessioned2024-07-10T00:12:43Z-
dc.date.available2024-07-10T00:12:43Z-
dc.date.submitted2023-07-04-
dc.identifier.urihttps://bdm.unb.br/handle/10483/39225-
dc.language.isoPortuguêspt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.pt_BR
dc.description.abstract1Artificial Intelligence (AI) plays an increasingly crucial role in the field of sustainability, offering innovative solutions and helping address environmental challenges. Accordingly, this study aims to present the development of a methodology for detecting and recognizing solid waste from images. To achieve this, publicly available datasets containing various images of solid waste were used, with the main one being the Trash Annotations in Context (TACO) image dataset, which includes 60 distinct types of solid waste. In addition to training on the image dataset, a comparison was made among the main deep learning models of the You Only Look Once (YOLO) architecture (version 7), applying optimization techniques such as transfer learning and data augmentation. The results obtained, when compared to state-of-the-art works, achieved improvement values of up to 119% for the same set of images from the TACO dataset.pt_BR
Aparece na Coleção:Engenharia Mecatrônica



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.