Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/24883
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2019_JoseReinaldoSilvaNeto_tcc.pdf30,66 MBAdobe PDFver/abrir
Registro completo
Campo Dublin CoreValorLíngua
dc.contributor.advisorLamar, Marcus Vinicius-
dc.contributor.authorSilva Neto, José Reinaldo da Cunha Santos Aroso Vieira-
dc.identifier.citationSILVA NETO, José Reinaldo da Cunha Santos Aroso Vieira. Implementação de redes neurais artificiais Perceptron e recorrentes em FPGA utilizando aritmética em ponto flutuante. 2019. 76 f. Trabalho de Conclusão de Curso (Bacharelado em Engenharia Mecatrônica)—Universidade de Brasília, Brasília, 2019.pt_BR
dc.descriptionTrabalho de Conclusão de Curso (graduação)—Universidade de Brasília, Faculdade de Tecnologia, Curso de Graduação em Engenharia de Controle e Automação, 2019.pt_BR
dc.description.abstractPara a implementação de redes neurais artificiais perceptron e recorrentes em chips FPGA foram desenvolvidos módulos de funções de ativação sigmoide logística e tangente hiperbólica utilizando técnicas de aproximações polinomiais, aproximação em amostras de intervalos fixos e implementação exata utilizando blocos IP de exponenciação. Foi observado que as funções com maiores utilizações de recursos físicos também apresentavam os menores erros de aproximação. Utilizando as funções de ativação desenvolvidas e módulos IP de operações aritméticas em ponto flutuante propomos uma ferramenta que fosse capaz de converter automaticamente redes definidas em software para linguagem de descrição de hardware. Os códigos resultantes da conversão poderiam, então, ser diretamente embarcados em chip FPGA. De forma a validar o funcionamento da ferramenta quatro casos de teste foram propostos, sendo dois deles relativos a redes feedforward e dois a redes recorrentes. O menor erro obtido entre as redes embarcadas e as em software foi de 1, 1968 × 10−13 enquanto que o maior foi de 0, 0366.pt_BR
dc.rightsAcesso Abertopt_BR
dc.subject.keywordRede neural recorrentept_BR
dc.subject.keywordChip Field Programable Gate Array (FPGA)pt_BR
dc.subject.keywordRedes neurais (Computação)pt_BR
dc.subject.keywordAritmética de ponto flutuantept_BR
dc.subject.keywordLinguagem de programação - MATLABpt_BR
dc.subject.keywordLinguagem de programação - Verilogpt_BR
dc.titleImplementação de redes neurais artificiais Perceptron e recorrentes em FPGA utilizando aritmética em ponto flutuantept_BR
dc.typeTrabalho de Conclusão de Curso - Graduação - Bachareladopt_BR
dc.date.accessioned2020-07-27T19:47:00Z-
dc.date.available2020-07-27T19:47:00Z-
dc.date.submitted2019-07-15-
dc.identifier.urihttps://bdm.unb.br/handle/10483/24883-
dc.language.isoPortuguêspt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.pt_BR
dc.description.abstract1For the implementation of perceptron and recurrent artificial neural networks in FPGA chips, we developed logistic sigmoid and hyperbolic tangent activation function modules by polynomial and fixed-interval samples approximations and exact implementation using exponentiation IP blocks. It was observed that those that required more hardware resources were also the ones with the smaller approximation errors. By using the developed activation functions and floating-point arithmetic operations IP blocks we propose a tool that were able to automatically convert software defined neural networks into hardware description language. The resulting codes could then be directly embarked into an FPGA chip. As a means to validate the tool’s correct operation, four test cases were proposed, two of them being related to feedforward networks while the other two were related to recurrent networks. The smallest obtained error between embarked and software networks was 1, 1968 × 10−13 while the biggest was 0, 0366.pt_BR
Aparece na Coleção:Engenharia Mecatrônica



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.