Campo Dublin Core | Valor | Língua |
dc.contributor.advisor | Lamar, Marcus Vinicius | - |
dc.contributor.author | Mota, Ícaro da Costa | - |
dc.identifier.citation | MOTA, Ícaro da Costa. Aprendizagem por reforço utilizando Q-Learning e redes neurais artificiais em jogos eletrônicos. 2018. 61 f., il. Trabalho de Conclusão de Curso (Bacharelado em Engenharia Mecatrônica)—Universidade de Brasília, Brasília, 2018. | pt_BR |
dc.description | Trabalho de Conclusão de Curso (graduação)—Universidade de Brasília, Faculdade de Tecnologia, Curso de Graduação em Engenharia de Controle e Automação, 2018. | pt_BR |
dc.description.abstract | Em aprendizagem por reforço, um agente deve aprender com suas experiências ao interagir com
o ambiente no qual se encontra. Este trabalho propõe um sistema de aprendizagem profunda com
o algoritmo Deep Q-Learning para ensinar um agente genérico a jogar jogos eletrônicos distintos,
utilizando redes neurais artificiais para estimar o valor de executar-se uma ação no estado no qual
o agente se encontra. O trabalho foi desenvolvido utilizando a ferramenta ROS para gerenciar
a comunicação entre os sistemas. Aplicou–se as técnicas desenvolvidos nos jogos Enduro, Ms.
Pacman, Breakout e Pong, emulados pela ferramenta OpenAI Gym, desenvolvida especificamente
para auxiliar em trabalhos de aprendizagem por reforço. O agente demonstrou aprender no jogo
Ms. Pacman, porém a modelagem do estado foi insuficiente nos jogos Breakout e Pong, resultando
na inabilidade do agente em selecionar a melhor ação no estado em que se encontrava. No jogo
Enduro, o agente não conseguiu interagir o suficiente com o ambiente para obter recompensas e
aprender a maximiza-las. | pt_BR |
dc.rights | Acesso Aberto | pt_BR |
dc.subject.keyword | Inteligência artificial | pt_BR |
dc.title | Aprendizagem por reforço utilizando Q-Learning e redes neurais artificiais em jogos eletrônicos | pt_BR |
dc.type | Trabalho de Conclusão de Curso - Graduação - Bacharelado | pt_BR |
dc.date.accessioned | 2019-02-06T10:36:11Z | - |
dc.date.available | 2019-02-06T10:36:11Z | - |
dc.date.submitted | 2018-07 | - |
dc.identifier.uri | http://bdm.unb.br/handle/10483/21323 | - |
dc.language.iso | Português | pt_BR |
dc.description.abstract1 | In reinforcement learning, an agent must learn from past experiences by interacting with its
environment. This work proposes a deep learning system with the Deep Q-Learning algorithm
to teach a generic agent to play distinct electronic games, by using artificial neural networks to
estimate the value of executing an action in the state the agent finds itself. The work was developed
by using the ROS resource to manage the communication between systems. The developed
techniques were applied to the games Enduro, Ms. Pacman, Breakout, and Pong, emulated by
the OpenAI Gym toolkit, developed specifically to aid in reinforced learning projects. The agent
has shown to learn in the Ms. Pacman environment, but the state representation was insufficient
in the games Breakout and Pong, resulting in the agent’s inability to select the best action in its
current state. In the game Enduro, the agent did not interact enough with its environment to
obtain rewards and learn to maximize them. | pt_BR |
Aparece na Coleção: | Engenharia Mecatrônica
|