Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/43298
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2025_FelipeMSilva_tcc.pdf24,27 MBAdobe PDFver/abrir
Registro completo
Campo Dublin CoreValorLíngua
dc.contributor.advisorOliveira, Roberta Barbosa-
dc.contributor.authorSilva, Felipe Moura da-
dc.identifier.citationSILVA, Felipe Moura da. Explicabilidade visual de redes convolucionais em diagnóstico histopatológico de câncer de mama: sensibilidade do Grad-CAM a transformações na orientação das imagens. 2025. 77 f., il. Trabalho de Conclusão de Curso (Licenciatura em Computação) — Universidade de Brasília, Brasília, 2025.pt_BR
dc.descriptionTrabalho de Conclusão de Curso (graduação) — Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2025.pt_BR
dc.description.abstractO câncer de mama é o segundo mais incidente entre mulheres, e seu diagnóstico precoce é essencial para reduzir a letalidade. Modelos de aprendizado de máquina têm sido utilizados para melhorar a precisão diagnóstica, especialmente a partir de biópsias. Contudo, a crescente complexidade das redes neurais tem gerado dúvidas quanto à interpretabilidade dos resultados, impulsionando o uso de métodos de explicabilidade como o Grad-CAM, que gera mapas de saliência em modelos CNN. Este trabalho investiga a sensibilidade do Grad-CAM frente a mudanças de orientação e posição em imagens histopatológicas da mama. Foram avaliadas as CNNs ResNet50, VGG16 e Xception, treinadas com a base BreakHis, composta por imagens de diferentes ampliações. As amostras de teste foram modificadas por rotações e inversões para testar a robustez dos modelos e explicações. O Xception obteve os melhores resultados de acurácia (94,47%) e F1-score (95,85%) com imagens 100X, embora os mapas explicativos tenham variado conforme a transformação aplicada.pt_BR
dc.rightsAcesso Abertopt_BR
dc.subject.keywordCâncerpt_BR
dc.subject.keywordCâncer - diagnósticopt_BR
dc.subject.keywordCâncer de mamapt_BR
dc.subject.keywordGrad-Cam - Gradient-weighted Class Activation Mapping (Técnica)pt_BR
dc.subject.keywordRedes neurais (Computação)pt_BR
dc.subject.keywordRedes neurais convolucionais (Computação)pt_BR
dc.titleExplicabilidade visual de redes convolucionais em diagnóstico histopatológico de câncer de mama: sensibilidade do Grad-CAM a transformações na orientação das imagenspt_BR
dc.typeTrabalho de Conclusão de Curso - Graduação - Licenciaturapt_BR
dc.date.accessioned2026-01-12T19:16:52Z-
dc.date.available2026-01-12T19:16:52Z-
dc.date.submitted2025-07-14-
dc.identifier.urihttps://bdm.unb.br/handle/10483/43298-
dc.language.isoPortuguêspt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.pt_BR
dc.description.abstract1Breast cancer is the second most prevalent among women, and early diagnosis is essential to reduce mortality. Machine learning models have been used to improve diagnostic accuracy,especiallythroughbiopsies. However,thegrowingcomplexityofneuralnetworks has raised concerns about result interpretability, driving the adoption of explainability methods such as the Grad-CAM, which generates saliency maps in CNN models. This study investigates the sensitivity of Grad-CAM to changes in orientation and position in breast histopathological images. CNNs ResNet50, VGG16, and Xception were evaluated, trained with the BreakHis dataset, which comprises images at different magnifications. Test samples were modified by rotations and flips to assess the robustness of both the models and the explanations. Xception achieved the best results in terms of accuracy (94.47%)andF1-score (95.85%)with100Ximages,althoughtheexplanatorymapsvaried according to the applied transformation.pt_BR
Aparece na Coleção:Computação



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.