Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/28428
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2018_JuliaCabralDinizBraz_tcc.pdf5,83 MBAdobe PDFver/abrir
Título: Melhoramento de marcha para robô quadrúpede utilizando estratégia de aprendizagem por reforço
Autor(es): Braz, Júlia Cabral Diniz
Orientador(es): Romariz, Alexandre Ricardo Soares
Assunto: Aprendizado por reforço
Monte Carlo, Método de
Robôs móveis
Data de apresentação: 12-Dez-2018
Data de publicação: 2-Set-2021
Referência: BRAZ, Júlia Cabral Diniz. Melhoramento de marcha para robô quadrúpede utilizando estratégia de aprendizagem por reforço. 2018. xiii, 69 f., il. Trabalho de Conclusão de Curso (Bacharelado em Engenharia Elétrica)—Universidade de Brasília, Brasília, 2018.
Resumo: Esse trabalho tem como objetivo o melhoramento de um modelo de marcha proposto em um trabalho anterior, utilizando-se estratégias de aprendizado por reforço. Para isso foram aplicados dois métodos diferentes, o primeiro foi a utilização do algoritmo de diferença temporal e o segundo, um algoritmo de gradiente de política. Para a avaliação dos algoritmos eles foram, primeiramente, aplicados em ambiente simulado. No primeiro método, o valor dos estados são aproximados conforme os estados são visitados e uma implementação com parâmetros contínuos se mostrou inviável. Deste modo, apenas três parâmetros foram escolhidos para serem aprendidos e esses foram discretizados em passos de 0,4, mas mesmo com estas restrições impostas, foi visto que para se obter uma estimativa da função valor eram necessárias muitas horas de simulação. No segundo método o tempo de simulação diminuiu consideravelmente, e com poucas iterações, foi possível a obtenção de melhores resultados. A marcha usada para inciar o algoritmo conseguia percorrer uma distância de 61cm e a marcha final encontrada nesse trabalho chegou a andar 80cm, um aumento de 30%.
Abstract: This work aims to improve a gait model proposed in an earlier work, using reinforcement learning strategies. For this, two different methods were applied, the first being the use of the time difference algorithm and the second, a policy gradient algorithm. For the evaluation of the algorithms they were applied in a simulated environment first. In the first method, the value of the states is approximated as the states are visited and an implementation with continuous parameters proved to be impractical. Thus, only three parameters were chosen to be learned and these were discretized in steps of 0.4, but even with these restrictions, it was seen that in order to obtain an estimate of the value function, many hours of simulation were necessary. In the second method the simulation time decreased considerably and with few iterations it was possible to obtain better results. The march used to start the algorithm could walk a distance of 61cm and the final gait found in this work reached 80cm, an increase of 30%.
Informações adicionais: Trabalho de Conclusão de Curso (graduação)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2018.
Licença: A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.
Aparece na Coleção:Engenharia Elétrica



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.