Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/36298
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2023_ArthurHugoCunhaPereira_tcc.pdf1,58 MBAdobe PDFver/abrir
Título: Duas abordagens de redes neurais convolucionais em FPGA : algoritmo espacial e algoritmo de Winograd
Autor(es): Pereira, Artur Hugo Cunha
Orientador(es): Lamar, Marcus Vinicius
Assunto: Redes neurais convolucionais (Computação)
Portas Programáveis em Campo (FPGAs)
Algoritmos de computador
FPGAs (Field Programmable Gate Arrays)
Data de apresentação: 26-Jul-2023
Data de publicação: 5-Out-2023
Referência: PEREIRA, Artur Hugo Cunha. Duas abordagens de redes neurais convolucionais em FPGA : algoritmo espacial e algoritmo de Winograd. 2023. 57 f., il. Trabalho de Conclusão de Curso (Bacharelado em Engenharia da Computação) — Universidade de Brasília, Brasília, 2023.
Resumo: O campo de inteligência artificial tem evoluído muito recentemente. Com o advento das Redes Neurais Profundas (do inglês, Deep Neural Networks) (DNNs), a demanda por desempenho computacional se torna cada vez maior. Apesar da popularidade do uso de Unidades de Processamento Gráficas (do inglês Graphics Processing Units) (GPUs) para aceleração do processamento, outras tecnologias podem apresentar potencial e diferentes vantagens para resolver esse problema. Uma dessas alternativas são os Arranjos de Portas Programáveis em Campo (do inglês Field-Programmable Gate Arrays) (FPGAs), que apresentam grande flexibilidade para desenvolvimento de hardware dedicado. Este trabalho se propõe a explorar a implementação em FPGA de Redes Neurais Convolucionais (do inglês, Convolutional Neural Networks) (CNNs), um dos tipos mais populares de DNNs. Para tal, dois circuitos são propostos: um que se baseia no algoritmo tradicional, ou espacial, de convolução e outro que se baseia no algoritmo de Winograd para convolução. O algoritmo de Winograd visa simplificar o processo de convolução através de transformações lineares que reduzem o número de multiplicações necessárias. Entretanto, há um aumento na complexidade do circuito devido à lógica adicional para realizar as transformações. As duas implementações são comparadas em um estudo de caso de uma arquitetura simples para resolver o problema de classificação de dígitos escritos à mão da base MNIST. A conclusão obtida a partir dessa comparação é de que, embora o circuito de Winograd tenha maiores requisitos espaciais, seu tempo de inferência é consideravelmente menor devido à natureza do algoritmo que permite calcular quatro saídas da convolução paralelamente.
Abstract: The field of artificial intelligence has been rapidly evolving in recent times. With the advent of Deep Neural Networks (DNNs), the demand for computational performance is ever-increasing. Even though Graphics Processing Units (GPUs) for accelerating processing are the most popular choice for accelerating DNNs, other technologies can offer potential and different advantages to solve this problem. One of these alternatives is Field-Programmable Gate Arrays (FPGAs), which provide great flexibility for dedicated hardware development. This work aims to explore the implementation of Convolutional Neural Networks (CNNs), one of the most popular types of DNNs, on FPGAs. To this end, two circuits are proposed: one based on the traditional, or spatial, convolution algorithm and another based on the Winograd algorithm for convolution. The Winograd algorithm aims to simplify the convolution process through linear transformations that reduce the number of multiplications required. However, there is an increase in circuit complexity due to the additional logic to perform the transformations. The two implementations are compared in a case study of a simple architecture to solve the handwritten digits classification problem in the MNIST dataset. The conclusion drawn from this comparison is that, although the Winograd circuit has higher spatial requirements, its inference time is considerably lower due to the nature of the algorithm, which allows for the parallel calculation of four convolution outputs.
Informações adicionais: Trabalho de Conclusão de Curso (graduação) — Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2023.
Licença: A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.
Aparece na Coleção:Engenharia da Computação



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.