Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/43298
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2025_FelipeMSilva_tcc.pdf24,27 MBAdobe PDFver/abrir
Título: Explicabilidade visual de redes convolucionais em diagnóstico histopatológico de câncer de mama: sensibilidade do Grad-CAM a transformações na orientação das imagens
Autor(es): Silva, Felipe Moura da
Orientador(es): Oliveira, Roberta Barbosa
Assunto: Câncer
Câncer - diagnóstico
Câncer de mama
Grad-Cam - Gradient-weighted Class Activation Mapping (Técnica)
Redes neurais (Computação)
Redes neurais convolucionais (Computação)
Data de apresentação: 14-Jul-2025
Data de publicação: 12-Jan-2026
Referência: SILVA, Felipe Moura da. Explicabilidade visual de redes convolucionais em diagnóstico histopatológico de câncer de mama: sensibilidade do Grad-CAM a transformações na orientação das imagens. 2025. 77 f., il. Trabalho de Conclusão de Curso (Licenciatura em Computação) — Universidade de Brasília, Brasília, 2025.
Resumo: O câncer de mama é o segundo mais incidente entre mulheres, e seu diagnóstico precoce é essencial para reduzir a letalidade. Modelos de aprendizado de máquina têm sido utilizados para melhorar a precisão diagnóstica, especialmente a partir de biópsias. Contudo, a crescente complexidade das redes neurais tem gerado dúvidas quanto à interpretabilidade dos resultados, impulsionando o uso de métodos de explicabilidade como o Grad-CAM, que gera mapas de saliência em modelos CNN. Este trabalho investiga a sensibilidade do Grad-CAM frente a mudanças de orientação e posição em imagens histopatológicas da mama. Foram avaliadas as CNNs ResNet50, VGG16 e Xception, treinadas com a base BreakHis, composta por imagens de diferentes ampliações. As amostras de teste foram modificadas por rotações e inversões para testar a robustez dos modelos e explicações. O Xception obteve os melhores resultados de acurácia (94,47%) e F1-score (95,85%) com imagens 100X, embora os mapas explicativos tenham variado conforme a transformação aplicada.
Abstract: Breast cancer is the second most prevalent among women, and early diagnosis is essential to reduce mortality. Machine learning models have been used to improve diagnostic accuracy,especiallythroughbiopsies. However,thegrowingcomplexityofneuralnetworks has raised concerns about result interpretability, driving the adoption of explainability methods such as the Grad-CAM, which generates saliency maps in CNN models. This study investigates the sensitivity of Grad-CAM to changes in orientation and position in breast histopathological images. CNNs ResNet50, VGG16, and Xception were evaluated, trained with the BreakHis dataset, which comprises images at different magnifications. Test samples were modified by rotations and flips to assess the robustness of both the models and the explanations. Xception achieved the best results in terms of accuracy (94.47%)andF1-score (95.85%)with100Ximages,althoughtheexplanatorymapsvaried according to the applied transformation.
Informações adicionais: Trabalho de Conclusão de Curso (graduação) — Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2025.
Licença: A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.
Aparece na Coleção:Computação



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.