Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/14880
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2016_DanielVicentinGoncalves_tcc.pdf2,19 MBAdobe PDFver/abrir
Registro completo
Campo Dublin CoreValorLíngua
dc.contributor.advisorBauchspiess, Adolfo-
dc.contributor.authorGonçalves, Daniel Vicentin-
dc.identifier.citationGONÇALVES, Daniel Vicentin. Controle adaptativo de processo de nível utilizando aprendizado por reforço ator-crítico. 2016. [62] f., il. Monografia (Bacharelado em Engenharia Mecatrônica)—Universidade de Brasília, Brasília, 2016.pt_BR
dc.descriptionMonografia (graduação)—Universidade de Brasília, Faculdade de Tecnologia, Curso de Graduação em Engenharia de Controle e Automação, 2016.pt_BR
dc.description.abstractO presente trabalho apresenta o projeto de um controlador adaptativo utilizando aprendizado por reforço para controle de nível em um processo de 4 tanques. O controlador utiliza a abordagem Ator-Crítico com aproximação de funções por redes neurais de base radial e treinamento através do gradiente descendente do erro de diferença temporal. Os resultados simulados demonstram um desempenho superior do controlador adaptativo quando comparado a um controlador PI tradicional. Os resultados obtidos pela aplicação no sistema real demonstram a posssibilidade de uso do algoritmo em um sistema de controle. São também apresentadas as di culdades dessa implementação.pt_BR
dc.rightsAcesso Abertopt_BR
dc.subject.keywordControlador adaptativopt_BR
dc.subject.keywordAprendizado por reforçopt_BR
dc.titleControle adaptativo de processo de nível utilizando aprendizado por reforço ator-críticopt_BR
dc.typeTrabalho de Conclusão de Curso - Graduação - Bachareladopt_BR
dc.date.accessioned2016-09-30T17:48:42Z-
dc.date.available2016-09-30T17:48:42Z-
dc.date.submitted2016-07-
dc.identifier.urihttp://bdm.unb.br/handle/10483/14880-
dc.language.isoPortuguêspt_BR
dc.subjectModelagem de processospt_BR
dc.contributor.advisorcoTognetti, Eduardo Stockler-
dc.description.abstract1This work presents an adaptive controller project using reinforcement learning for liquid-level control in a quadruple-tank process. The controller was designed with the Actor-Critic method using radial basis networks for function approximation and training through gradient descent of the temporal di erence error. The simulation results show superior performance of the adaptive controller when compared to traditional PI controller. The results of the implementation in a real environment show the possibility of usage for this algorithm in a control system. The other challenges found are also presented.pt_BR
Aparece na Coleção:Engenharia Mecatrônica



Este item está licenciado na Licença Creative Commons Creative Commons