Campo Dublin Core | Valor | Língua |
dc.contributor.advisor | Lamar, Marcus Vinicius | - |
dc.contributor.author | Gil, Luigi Nunes | - |
dc.identifier.citation | GIL, Luigi Nunes. Projeto e treinamento de redes neurais recorrentes utilizando computação estocástica para síntese em FPGA. 2019. 80 f., il. Trabalho de conclusão de curso (Bacharelado em Engenharia da Computação)—Universidade de Brasília, Brasília, 2019. | pt_BR |
dc.description | Trabalho de Conclusão de Curso (graduação)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2019. | pt_BR |
dc.description.abstract | Este trabalho apresenta o treinamento e implementação de redes neurais recorrentes uti-
lizando computação estocástica. Um estudo teórico acerca de redes neurais foi feito, a
fim de que fosse possível compreender os algoritmos de treinamento e utilização das redes
adotadas no projeto. Foram implementadas redes neurais tradicionais e redes neurais
recorrentes, além de redes neurais recorrentes utilizando computação estocástica em soft-
ware, com a finalidade de validar a utilização de tal paradigma na construção destas
redes para então sintetizá-las em hardware, através de chips FPGA, de modo que sejam
avaliadas questões como precisão da saída, tamanho do circuito digital final e comparação
com implementações utilizando ponto fixo e ponto flutuante. A utilização de computação
estocástica permite a construção de circuitos digitais mais simples para realizar operações
necessárias em redes neurais, possibilitando que grandes redes possam ser sintetizadas em
FPGA e problemas mais complexos possam ser resolvidos através de hardware. | pt_BR |
dc.rights | Acesso Aberto | pt_BR |
dc.subject.keyword | Redes neurais (Computação) | pt_BR |
dc.subject.keyword | Computação estocástica | pt_BR |
dc.title | Projeto e treinamento de redes neurais recorrentes utilizando computação estocástica para síntese em FPGA | pt_BR |
dc.type | Trabalho de Conclusão de Curso - Graduação - Bacharelado | pt_BR |
dc.date.accessioned | 2021-11-17T17:53:20Z | - |
dc.date.available | 2021-11-17T17:53:20Z | - |
dc.date.submitted | 2019-12-12 | - |
dc.identifier.uri | https://bdm.unb.br/handle/10483/29208 | - |
dc.language.iso | Português | pt_BR |
dc.rights.license | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta. | pt_BR |
dc.description.abstract1 | This paper presents the implementation of recurrent neural networks using stochastic
computation for training. A theoretical study about neural networks was made, so that
it was possible to understand the training algorithms and use of networks adopted in the
project. Traditional neural networks and recurrent neural networks were implemented, as
well as recurrent neural networks using stochastic computation in software, in order to
validate the use of such a paradigm in the construction of these networks and then syn-
thesize them in hardware, using FPGA chips, so that issues such as output accuracy, final
digital circuit size, and comparison with fixed point and floating point implementations
are evaluated. The use of stochastic computing allows the construction of simpler digital
circuits to perform necessary operations in neural networks, allowing large networks to
be synthesized in FPGA and more complex problems to be solved through hardware. | pt_BR |
Aparece na Coleção: | Engenharia da Computação
|