Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/24883
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2019_JoseReinaldoSilvaNeto_tcc.pdf30,66 MBAdobe PDFver/abrir
Título: Implementação de redes neurais artificiais Perceptron e recorrentes em FPGA utilizando aritmética em ponto flutuante
Autor(es): Silva Neto, José Reinaldo da Cunha Santos Aroso Vieira
Orientador(es): Lamar, Marcus Vinicius
Assunto: Rede neural recorrente
Chip Field Programable Gate Array (FPGA)
Redes neurais (Computação)
Aritmética de ponto flutuante
Linguagem de programação - MATLAB
Linguagem de programação - Verilog
Data de apresentação: 15-Jul-2019
Data de publicação: 27-Jul-2020
Referência: SILVA NETO, José Reinaldo da Cunha Santos Aroso Vieira. Implementação de redes neurais artificiais Perceptron e recorrentes em FPGA utilizando aritmética em ponto flutuante. 2019. 76 f. Trabalho de Conclusão de Curso (Bacharelado em Engenharia Mecatrônica)—Universidade de Brasília, Brasília, 2019.
Resumo: Para a implementação de redes neurais artificiais perceptron e recorrentes em chips FPGA foram desenvolvidos módulos de funções de ativação sigmoide logística e tangente hiperbólica utilizando técnicas de aproximações polinomiais, aproximação em amostras de intervalos fixos e implementação exata utilizando blocos IP de exponenciação. Foi observado que as funções com maiores utilizações de recursos físicos também apresentavam os menores erros de aproximação. Utilizando as funções de ativação desenvolvidas e módulos IP de operações aritméticas em ponto flutuante propomos uma ferramenta que fosse capaz de converter automaticamente redes definidas em software para linguagem de descrição de hardware. Os códigos resultantes da conversão poderiam, então, ser diretamente embarcados em chip FPGA. De forma a validar o funcionamento da ferramenta quatro casos de teste foram propostos, sendo dois deles relativos a redes feedforward e dois a redes recorrentes. O menor erro obtido entre as redes embarcadas e as em software foi de 1, 1968 × 10−13 enquanto que o maior foi de 0, 0366.
Abstract: For the implementation of perceptron and recurrent artificial neural networks in FPGA chips, we developed logistic sigmoid and hyperbolic tangent activation function modules by polynomial and fixed-interval samples approximations and exact implementation using exponentiation IP blocks. It was observed that those that required more hardware resources were also the ones with the smaller approximation errors. By using the developed activation functions and floating-point arithmetic operations IP blocks we propose a tool that were able to automatically convert software defined neural networks into hardware description language. The resulting codes could then be directly embarked into an FPGA chip. As a means to validate the tool’s correct operation, four test cases were proposed, two of them being related to feedforward networks while the other two were related to recurrent networks. The smallest obtained error between embarked and software networks was 1, 1968 × 10−13 while the biggest was 0, 0366.
Informações adicionais: Trabalho de Conclusão de Curso (graduação)—Universidade de Brasília, Faculdade de Tecnologia, Curso de Graduação em Engenharia de Controle e Automação, 2019.
Licença: A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.
Aparece na Coleção:Engenharia Mecatrônica



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.