Título: | Melhoramento de marcha para robô quadrúpede utilizando estratégia de aprendizagem por reforço |
Autor(es): | Braz, Júlia Cabral Diniz |
Orientador(es): | Romariz, Alexandre Ricardo Soares |
Assunto: | Aprendizado por reforço Monte Carlo, Método de Robôs móveis |
Data de apresentação: | 12-Dez-2018 |
Data de publicação: | 2-Set-2021 |
Referência: | BRAZ, Júlia Cabral Diniz. Melhoramento de marcha para robô quadrúpede utilizando estratégia de aprendizagem por reforço. 2018. xiii, 69 f., il. Trabalho de Conclusão de Curso (Bacharelado em Engenharia Elétrica)—Universidade de Brasília, Brasília, 2018. |
Resumo: | Esse trabalho tem como objetivo o melhoramento de um modelo de marcha proposto em um trabalho anterior, utilizando-se estratégias de aprendizado por reforço. Para isso foram aplicados dois métodos diferentes, o primeiro foi a utilização do algoritmo de diferença temporal e o segundo, um algoritmo de gradiente de política. Para a avaliação dos algoritmos eles foram, primeiramente, aplicados em ambiente simulado. No primeiro método, o valor dos estados são aproximados conforme os estados são visitados e uma implementação com parâmetros contínuos se mostrou inviável. Deste modo, apenas três parâmetros foram escolhidos para serem aprendidos e esses foram discretizados em passos de 0,4, mas mesmo com estas restrições impostas, foi visto que para se obter uma estimativa da função valor eram necessárias muitas horas de simulação. No
segundo método o tempo de simulação diminuiu consideravelmente, e com poucas iterações, foi possível a obtenção de melhores resultados. A marcha usada para inciar o algoritmo conseguia percorrer uma distância de 61cm e a marcha final encontrada nesse trabalho chegou a andar 80cm, um aumento de 30%. |
Abstract: | This work aims to improve a gait model proposed in an earlier work, using reinforcement learning strategies. For this, two different methods were applied, the first being the use of the time difference algorithm and the second, a policy gradient algorithm. For the evaluation of the algorithms they were applied in a simulated environment first. In the first method, the value of the states is approximated as the states are visited and an implementation with continuous parameters proved to be impractical. Thus, only three parameters were chosen to be learned and these were discretized in steps of 0.4, but even with these restrictions, it was seen that in order to obtain an estimate of the value function, many hours of simulation were necessary. In the second method the simulation time decreased considerably and with few iterations it was possible to obtain better
results. The march used to start the algorithm could walk a distance of 61cm and the final gait found in this work reached 80cm, an increase of 30%. |
Informações adicionais: | Trabalho de Conclusão de Curso (graduação)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2018. |
Licença: | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta. |
Aparece na Coleção: | Engenharia Elétrica
|
Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.