Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/22823
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2016_LucasNevesCarvalho.pdf3,88 MBAdobe PDFver/abrir
Registro completo
Campo Dublin CoreValorLíngua
dc.contributor.advisorLamar, Marcus Vinicius-
dc.contributor.authorCarvalho, Lucas Neves-
dc.identifier.citationCARVALHO, Lucas Neves. Projeto e treinamento de redes neurais em hardware FPGA usando computação estocástica. 2016. 93 f., il. Trabalho de Conclusão de Curso (Bacharelado em Engenharia da Computação)—Universidade de Brasília, Brasília, 2016.pt_BR
dc.descriptionTrabalho de Conclusão de Curso (graduação)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2018.pt_BR
dc.description.abstractA utilização de redes neurais na solução de problemas em aplicações em tempo real requer o uso extensivo de circuitos paralelos e um bom equilíbrio entre alto desempenho e eficiência energética. Estudos anteriores demonstram que dispositivos FPGA satisfazem estes critérios, porém a capacidade lógica limitada dos mesmos impede a implementação de grandes redes que se beneficiem dos conceitos de Deep Learning. A Computação Estocástica permite que operações como adição e multiplicação sejam realizadas por portas lógicas individuais, simplificando extremamente o circuito neural. Este trabalho propõe a implementação de redes neurais baseadas em operações puramente estocásticas, viabilizando grandes estruturas e mantendo a paralelização completa. Ademais, apresentamos técnicas estocásticas que possibilitam o treinamento em hardware das redes implementadas de forma eficiente. Operações booleanas simples, aproximações de funções 2D e problemas de classificação são usados para verificar a eficácia da solução proposta.pt_BR
dc.rightsAcesso Abertopt_BR
dc.subject.keywordVariáveis aleatóriaspt_BR
dc.subject.keywordComputação estocásticapt_BR
dc.titleProjeto e treinamento de redes neurais em hardware FPGA usando computação estocásticapt_BR
dc.typeTrabalho de Conclusão de Curso - Graduação - Bachareladopt_BR
dc.date.accessioned2019-12-02T13:13:08Z-
dc.date.available2019-12-02T13:13:08Z-
dc.date.submitted2016-07-13-
dc.identifier.urihttp://bdm.unb.br/handle/10483/22823-
dc.language.isoPortuguêspt_BR
dc.description.abstract1Solving real world problems with neural networks in real time applications requires extensive use of parallel circuitry and a good balance between high performance and energy efficiency. FPGA devices have beeen shown to meet the criteria, but their limited amount of logic resources prohibits the implementation of large networks that take advantage of deep learning techniques. Stochastic Computing allows operations like addition and multiplication to be performed by single logic gates, extremely simplifying neural circuitry. This work proposes the implementation of neural networks based on purely stochastic operations, supporting large structures while maintaining full parallelization. Furthermore, we also present stochastic techniques to enable high speed online training of these networks. Simple boolean operations, 2D function approximations and classification problems are used to verify the efficacy of the proposed solution.pt_BR
Aparece na Coleção:Engenharia da Computação



Este item está licenciado na Licença Creative Commons Creative Commons