Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/915
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2006_JoelMartins_CarlosKlein.pdf782,91 kBAdobe PDFver/abrir
Registro completo
Campo Dublin CoreValorLíngua
dc.contributor.advisorRomariz, Alexandre Ricardo Soares-
dc.contributor.authorKlein, Carlos Felipe Ávila-
dc.contributor.authorMartins, Joel Fernando Jardim-
dc.identifier.citationKLEIN, Carlos Felipe Ávila; MARTINS, Joel Fernando Jardim. Implementação de rede neural em hardware de ponto fixo. 2006. 87 f. Monografia (Bacharelado em Engenharia Elétrica)-Universidade de Brasília, Brasília, 2006.en
dc.descriptionMonografia (graduação)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2006.en
dc.description.abstractO presente trabalho apresenta um estudo sobre a utilização de Redes Neurais Multi-Layer Perceptron (MLP) com o seu treinamento efetuado baseado no algoritmo “Backpropagation”, também conhecido como regra delta generalizada. Demonstra-se o funcionamento dessas Redes em computadores domésticos e em hardware de ponto fixo TMS320VC5510da Texas Instruments, com intuito de fazer uma comparação entre elas e checar a viabilidade de uma rede em hardware de precisão limitada. Tendo em vista o tipo de rede e o algoritmo de aprendizagem, foram desenvolvidos algoritmos em linguagem de programação C portáveis para as plataformas PC e TMS320VC5510. Foram feitas análises relativas à quantidade de iterações necessárias para que as redes fornecessem saídas com uma precisão pré-determinada para alguns problemas bastante simples. Analisou-se também a porcentagem de acerto para o problema de classificação de espécies de Íris, clássico na literatura de redes neurais. Além disso, foram feitas análises de convergência de erro para todos os programas desenvolvidos.pt_BR
dc.rightsAcesso Abertoen
dc.subject.keywordRedes neurais (Computação)en
dc.subject.keywordAlgoritmos de computadoren
dc.titleImplementação de rede neural em hardware de ponto fixoen
dc.typeTrabalho de Conclusão de Curso - Graduação - Bachareladoen
dc.location.countryBRAen
dc.date.accessioned2010-03-15T12:52:43Z-
dc.date.available2010-03-15T12:52:43Z-
dc.date.issued2010-03-15T12:52:43Z-
dc.date.submitted2006-12-12-
dc.identifier.urihttp://bdm.unb.br/handle/10483/915-
dc.language.isoPortuguêsen
dc.description.abstract1This work presents a study of the use of Multi-Layer Perceptron (MLP) Neural Networks, its training based on the Backpropagation algorithm, also known as generalized delta rule. The implementation of these Networks in home computers and in the TMS320VC5510 fixed-point processor, from Texas Instruments, is demonstrated with the intention of making a comparison between them and to check the viability of a network in a hardware of limited precision. Knowing the type of network and the learning algorithm, some programs were developed using the C programming language. The algorithms implemented kept portability for both IBM and TMS320VC5510 platforms. Simulations were made to determine the amount of iterations necessary for the networks to provide outputs with a predetermined precision in simple problems. The ratio of success for the classical Iris problem was also investigated. Also, some examples of the convergence of error for all developed programs are shown.en
dc.identifier.doihttp://dx.doi.org/10.26512/2006.12.TCC.915-
Aparece na Coleção:Engenharia Elétrica



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.