Campo Dublin Core | Valor | Língua |
dc.contributor.advisor | Lamar, Marcus Vinicius | - |
dc.contributor.author | Silva Neto, José Reinaldo da Cunha Santos Aroso Vieira | - |
dc.identifier.citation | SILVA NETO, José Reinaldo da Cunha Santos Aroso Vieira. Implementação de redes neurais artificiais Perceptron e recorrentes em FPGA utilizando aritmética em ponto flutuante. 2019. 76 f. Trabalho de Conclusão de Curso (Bacharelado em Engenharia Mecatrônica)—Universidade de Brasília, Brasília, 2019. | pt_BR |
dc.description | Trabalho de Conclusão de Curso (graduação)—Universidade de Brasília, Faculdade de Tecnologia, Curso de Graduação em Engenharia de Controle e Automação, 2019. | pt_BR |
dc.description.abstract | Para a implementação de redes neurais artificiais perceptron e recorrentes em chips FPGA foram desenvolvidos módulos de funções de ativação sigmoide logística e tangente hiperbólica utilizando técnicas de aproximações polinomiais, aproximação em amostras de intervalos fixos e implementação exata utilizando blocos IP de exponenciação. Foi observado que as funções com maiores utilizações de recursos físicos também apresentavam os menores erros de aproximação. Utilizando as funções de ativação desenvolvidas e módulos IP de operações aritméticas em ponto flutuante propomos uma ferramenta que fosse capaz de converter automaticamente redes definidas em software para linguagem de descrição de hardware. Os códigos resultantes da conversão poderiam, então, ser diretamente embarcados em chip FPGA. De forma a validar o funcionamento da ferramenta quatro casos de teste foram propostos, sendo dois deles relativos a redes feedforward e dois a redes recorrentes. O menor erro obtido entre as redes embarcadas e as em software foi de 1, 1968 × 10−13 enquanto que o maior foi de 0, 0366. | pt_BR |
dc.rights | Acesso Aberto | pt_BR |
dc.subject.keyword | Rede neural recorrente | pt_BR |
dc.subject.keyword | Chip Field Programable Gate Array (FPGA) | pt_BR |
dc.subject.keyword | Redes neurais (Computação) | pt_BR |
dc.subject.keyword | Aritmética de ponto flutuante | pt_BR |
dc.subject.keyword | Linguagem de programação - MATLAB | pt_BR |
dc.subject.keyword | Linguagem de programação - Verilog | pt_BR |
dc.title | Implementação de redes neurais artificiais Perceptron e recorrentes em FPGA utilizando aritmética em ponto flutuante | pt_BR |
dc.type | Trabalho de Conclusão de Curso - Graduação - Bacharelado | pt_BR |
dc.date.accessioned | 2020-07-27T19:47:00Z | - |
dc.date.available | 2020-07-27T19:47:00Z | - |
dc.date.submitted | 2019-07-15 | - |
dc.identifier.uri | https://bdm.unb.br/handle/10483/24883 | - |
dc.language.iso | Português | pt_BR |
dc.rights.license | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta. | pt_BR |
dc.description.abstract1 | For the implementation of perceptron and recurrent artificial neural networks in FPGA chips, we developed logistic sigmoid and hyperbolic tangent activation function modules by polynomial and fixed-interval samples approximations and exact implementation using exponentiation IP blocks. It was observed that those that required more hardware resources were also the ones with the smaller approximation errors. By using the developed activation functions and floating-point arithmetic operations IP blocks we propose a tool that were able to automatically convert software defined neural networks into hardware description language. The resulting codes could then be directly embarked into an FPGA chip. As a means to validate the tool’s correct operation, four test cases were proposed, two of them being related to feedforward networks while the other two were related to recurrent networks. The smallest obtained error between embarked and software networks was 1, 1968 × 10−13 while the biggest was 0, 0366. | pt_BR |
Aparece na Coleção: | Engenharia Mecatrônica
|