Título: | Avaliação de segmentação de glomerulopatias utilizando modelos de aprendizagem profunda |
Autor(es): | Mota, João Viktor de Carvalho |
Orientador(es): | Vidal, Flávio de Barros |
Assunto: | Redes neurais (Computação) Aprendizagem de máquina Rins - doenças |
Data de apresentação: | 6-Ago-2024 |
Data de publicação: | 10-Set-2024 |
Referência: | MOTA, João Viktor de Carvalho. Avaliação de segmentação de glomerulopatias utilizando modelos de aprendizagem profunda. 2024. xii, 59 f., il. Trabalho de Conclusão de Curso (Bacharelado em Engenharia da Computação) — Universidade de Brasília, Brasília, 2024. |
Resumo: | Este trabalho explora e compara diversos modelos de aprendizagem profunda aplicados à
segmentação de imagens histológicas e à classificação de glomerulopatias, com o objetivo
de automatizar a segmentação dessas patologias e, assim, fornecer suporte aos patologistas para aumentar a precisão e a reprodutibilidade dos diagnósticos. Foram realizadas
duas abordagens de avaliação. Na primeira, uma ampla variedade de arquiteturas foi
analisada para avaliar o desempenho geral dos modelos, destacando-se o modelo Unet++
com o codificador RegNet, que apresentou os melhores resultados nas classes de fundo
(background) e podócitos não lesionados, bem como na média geral. Na segunda abordagem, ajustes específicos nas estratégias de treinamento foram aplicados para melhorar
a segmentação das classes de glomerulopatias. Nessa configuração, o modelo PAN combinado com o codificador RegNet sobressaiu-se para as classes de glomerulopatias, embora
isso tenha levado a uma diminuição do F1-Score para as classes de fundo e podócitos
não lesionados, resultando em uma média inferior. Esta pesquisa não apenas contribui
para o avanço da análise histológica e do diagnóstico assistido por inteligência artificial,
mas também oferece insights sobre o desempenho de diferentes modelos de aprendizagem
profunda em conjuntos de dados histológicos com glomerulopatias. |
Abstract: | This work explores and compares various deep learning models applied to the segmentation of histological images and the classification of glomerulopathies, aiming to automate
the segmentation of these pathologies and thereby provide support to pathologists, enhancing the accuracy and reproducibility of diagnoses. Two evaluation approaches were
conducted. In the first approach, a wide range of architectures was analyzed to assess the
overall performance of the models, with the Unet++ model featuring the RegNet encoder
standing out by achieving the best results in the background and non-lesioned podocyte
classes, as well as in the overall average. In the second approach, specific adjustments to
training strategies were applied to improve the segmentation of glomerulopathy classes.
In this configuration, the PAN model combined with the RegNet encoder excelled in the
glomerulopathy classes, although this led to a decrease in the F1-Score for the background
and non-lesioned podocyte classes, resulting in a lower overall average. This research not
only contributes to the advancement of histological analysis and AI-assisted diagnosis but
also provides insights into the performance of different deep learning models on histological datasets with glomerulopathies. |
Informações adicionais: | Trabalho de Conclusão de Curso (graduação) — Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2024. |
Licença: | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta. |
Aparece na Coleção: | Engenharia da Computação
|
Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.