Campo Dublin Core | Valor | Língua |
dc.contributor.advisor | Romariz, Alexandre Ricardo Soares | - |
dc.contributor.author | Klein, Carlos Felipe Ávila | - |
dc.contributor.author | Martins, Joel Fernando Jardim | - |
dc.identifier.citation | KLEIN, Carlos Felipe Ávila; MARTINS, Joel Fernando Jardim. Implementação de rede neural em hardware de ponto fixo. 2006. 87 f. Monografia (Bacharelado em Engenharia Elétrica)-Universidade de Brasília, Brasília, 2006. | en |
dc.description | Monografia (graduação)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2006. | en |
dc.description.abstract | O presente trabalho apresenta um estudo sobre a utilização de Redes Neurais Multi-Layer Perceptron (MLP) com o seu treinamento efetuado baseado no algoritmo “Backpropagation”, também conhecido como regra delta generalizada. Demonstra-se o funcionamento dessas Redes em computadores domésticos e em hardware de ponto fixo TMS320VC5510da Texas Instruments, com intuito de fazer uma comparação entre elas e checar a viabilidade de uma rede em hardware de precisão limitada. Tendo em vista o tipo de rede e o algoritmo de aprendizagem, foram desenvolvidos algoritmos em linguagem de programação C portáveis para as plataformas PC e TMS320VC5510. Foram feitas análises relativas à quantidade de iterações necessárias para que as redes fornecessem saídas com uma precisão pré-determinada para alguns problemas bastante simples. Analisou-se também a porcentagem de acerto para o problema de classificação de espécies de Íris, clássico na literatura de redes neurais. Além disso, foram feitas análises de convergência de erro para todos os programas desenvolvidos. | pt_BR |
dc.rights | Acesso Aberto | en |
dc.subject.keyword | Redes neurais (Computação) | en |
dc.subject.keyword | Algoritmos de computador | en |
dc.title | Implementação de rede neural em hardware de ponto fixo | en |
dc.type | Trabalho de Conclusão de Curso - Graduação - Bacharelado | en |
dc.location.country | BRA | en |
dc.date.accessioned | 2010-03-15T12:52:43Z | - |
dc.date.available | 2010-03-15T12:52:43Z | - |
dc.date.issued | 2010-03-15T12:52:43Z | - |
dc.date.submitted | 2006-12-12 | - |
dc.identifier.uri | http://bdm.unb.br/handle/10483/915 | - |
dc.language.iso | Português | en |
dc.description.abstract1 | This work presents a study of the use of Multi-Layer Perceptron (MLP) Neural Networks, its training based on the Backpropagation algorithm, also known as generalized delta rule. The implementation of these Networks in home computers and in the TMS320VC5510 fixed-point processor, from Texas Instruments, is demonstrated with the intention of making a comparison between them and to check the viability of a network in a hardware of limited precision. Knowing the type of network and the learning algorithm, some programs were developed using the C programming language. The algorithms implemented kept portability for both IBM and TMS320VC5510 platforms. Simulations were made to determine the amount of iterations necessary for the networks to provide outputs with a predetermined precision in simple problems. The ratio of success for the classical Iris problem was also investigated. Also, some examples of the convergence of error for all developed programs are shown. | en |
dc.identifier.doi | http://dx.doi.org/10.26512/2006.12.TCC.915 | - |
Aparece na Coleção: | Engenharia Elétrica
|