Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/40096
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2023_VictorAmaralCerqueira_tcc.pdf2,62 MBAdobe PDFver/abrir
Registro completo
Campo Dublin CoreValorLíngua
dc.contributor.advisorSoares, Fabiano Araújo-
dc.contributor.authorCerqueira, Victor Amaral-
dc.identifier.citationCERQUEIRA, Victor Amaral. A aplicabilidade do aprendizado federado no treinamento de modelos de IA em dados descentralizados. 2023. 80 f., il. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Software) — Universidade de Brasília, Brasília, 2023.pt_BR
dc.descriptionTrabalho de Conclusão de Curso (graduação) — Universidade de Brasília, Faculdade UnB Gama, 2023.pt_BR
dc.description.abstractO crescente foco na preservação da privacidade dos dados na era digital tem impulsionado a adoção de abordagens inovadoras no treinamento de modelos de inteligência artificial (IA), especialmente em cenários onde os dados são descentralizados. O aprendizado federado (AF) emergiu como uma solução promissora para treinar modelos de IA em ambientes descentralizados, mantendo a privacidade dos dados dos usuários. Este trabalho tem como objetivo explorar o potencial do aprendizado federado para superar os desafios associados ao treinamento de modelos de IA em dados distribuídos e garantir a proteção da privacidade. A metodologia adotada envolveu uma abordagem prática e comparativa. Inicialmente, foram conceituadas as estratégias de aprendizado federado e as técnicas de preservação da privacidade, além das técnicas de segurança necessárias para proteger dados sensíveis. O estudo também abordou os principais desafios do uso de dados descentralizados. Em seguida, foram implementados modelos de aprendizado centralizado utilizando a base de dados Fashion-MNIST com diferentes técnicas de treinamento como Redes Neurais Convolucionais (CNN), Perceptrons Multicamadas (MLP) rasos e Perceptrons Multicamadas profundas que depois foram comparados com um modelo de aprendizado federado utilizando a técnica de rede neural convolucional para efetuar o treinamento de cada dispositivo a ser agregado no modelo global. O treinamento e a avaliação de desempenho foram conduzidos utilizando TensorFlow Federated e Google Colab, com foco na análise de métricas como acurácia, perda e acurácia top-3. Os resultados obtidos mostraram que os modelos centralizados, especialmente a CNN, alcançaram um desempenho superior em termos de acurácia e eficiência computacional em relação ao modelo federado. No entanto, o modelo federado, embora tenha enfrentado desafios com tempos de treinamento mais longos e maior complexidade na comunicação entre dispositivos, apresentou resultados promissores na preservação da privacidade, destacando-se em cenários onde a descentralização dos dados é fundamental. As dificuldades ao desenvolver o modelo federado evidenciaram que, apesar de um desempenho competitivo, o aprendizado federado requer otimizações adicionais para melhorar a eficiência computacional. Em conclusão, o trabalho destaca a viabilidade do aprendizado federado como uma abordagem para manter a privacidade em cenários descentralizados, mas também ressalta a necessidade de mais pesquisas para superar suas limitações e otimizar sua aplicação prática.pt_BR
dc.rightsAcesso Abertopt_BR
dc.subject.keywordInteligência artificialpt_BR
dc.subject.keywordAprendizado de máquinapt_BR
dc.subject.keywordRedes neurais (Computação)pt_BR
dc.titleA aplicabilidade do aprendizado federado no treinamento de modelos de IA em dados descentralizadospt_BR
dc.typeTrabalho de Conclusão de Curso - Graduação - Bachareladopt_BR
dc.date.accessioned2024-10-07T18:54:05Z-
dc.date.available2024-10-07T18:54:05Z-
dc.date.submitted2023-09-23-
dc.identifier.urihttps://bdm.unb.br/handle/10483/40096-
dc.language.isoPortuguêspt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.pt_BR
dc.contributor.advisorcoMiranda, Daniel Araújo-
dc.description.abstract1The growing focus on data privacy in the digital age has driven the adoption of innovative approaches to training artificial intelligence (AI) models, particularly in scenarios where data is decentralized. Federated learning (FL) has emerged as a promising solution for training AI models in decentralized environments while preserving user data privacy. This work aims to explore the potential of federated learning to overcome the challenges asso ciated with training AI models on distributed data and ensuring privacy protection. The adopted methodology involved a practical and comparative approach. Initially, strategies of federated learning and privacy-preserving techniques were conceptualized, as well as the security techniques necessary to protect sensitive data. The study also addressed the main challenges of using decentralized data. Next, centralized learning models were im plemented using the Fashion-MNIST dataset with different training techniques such as Convolutional Neural Networks (CNN), shallow Multilayer Perceptrons (MLP), and deep Multilayer Perceptrons, which were then compared to a federated learning model using a convolutional neural network technique to train each device that would be aggregated into the global model. Training and performance evaluation were conducted using Tensor Flow Federated and Google Colab, focusing on metrics such as accuracy, loss, and top-3 accuracy. The results showed that centralized models, particularly the CNN, achieved superior performance in terms of accuracy and computational efficiency compared to the federated model. However, the federated model, while facing challenges with longer training times and increased communication complexity between devices, showed promising results in privacy preservation, standing out in scenarios where data decentralization is essential. The difficulties encountered in developing the federated model highlighted that, despite competitive performance, federated learning requires additional optimizations to improve computational efficiency. In conclusion, the study highlights the feasibility of federated learning as an approach to maintaining privacy in decentralized scenarios, but also emphasizes the need for further research to overcome its limitations and optimize its practical application.pt_BR
Aparece na Coleção:Engenharia de Software



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.