Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/28398
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2018_GustavoHenriqueCarvalho_PedroMarques_tcc.pdf4,08 MBAdobe PDFver/abrir
Título: Deep learning aplicado à classificação de vídeos
Autor(es): Carvalho, Gustavo Henrique Takahashi de Aquino
Marques, Pedro Caiafa
Orientador(es): Romariz, Alexandre Ricardo Soares
Assunto: Aprendizado de máquina
Redes neurais (Computação)
Vídeo - classificação
Data de apresentação: 10-Dez-2018
Data de publicação: 28-Ago-2021
Referência: CARVALHO, Gustavo Henrique Takahashi de Aquino; MARQUES, Pedro Caiafa. Deep learning aplicado à classificação de vídeos. 2018. 74 f., il. Trabalho de Conclusão de Curso (Bacharelado em Engenharia Elétrica)—Universidade de Brasília, Brasília, 2018.
Resumo: A identificação automática de ações em vídeos é uma área extensamente explorada em inteligência artificial, impulsionada pela enorme quantidade de dados e tempo necessário para realização manual desta tarefa. Neste cenário, realiza-se estudo a respeito de redes capazes de classificar vídeos de acordo com as ações tomadas utilizando o data set UCF101, composto por 13320 vídeos divididos em 101 categorias. Comparam-se metodologias ingênuas, que realizam classificação da ação por apenas uma imagem estática, com técnicas que incorporam as informações temporais por meio de diversas arquiteturas, aferindo impactos da relação temporal na classificação. Com este fim, são utilizadas redes convolucionais, implementadas em python com auxílio da biblioteca Keras utilizando o Tensorflow como backend. É explorada a possibilidade de realizar o presente estudo com limitações de recursos expressivas quando comparadas às tecnologias disponíveis em trabalhos estado da arte. Ao final, comprova-se a viabilidade deste tipo de pesquisa com a capacidade de obter redes que, ainda que não alcancem 98, 0% de acurácia do melhor resultado já reportado, apresentem resultados bastante expressivos, atingindo a marca de 92, 6% de acurácia.
Abstract: Automatically identifying actions in videos is extensively explored by the usage of artificial intelligence given the vast video data there is and the time it takes to manually perform this task. With this in perspective, we set out to study networks capable of classifying videos in respect to the actions taken within them, to that end the data set UCF101, comprised of 133320 video clips divided among 101 classes, is explored. We compare trivial methodologies, which try to classify the video using only a single static image, with networks that incorporate the temporal information, hoping to asses the influence of temporal relation in the classification process. To do so convolutional networks are implemented in python with the support of the Keras library running on top of Tensorflow. We also address the viability of studying these problems with severe resource limitation compared to the technology available in most state of the art researches. We manage to confirm the possibility of researches with these limitations by training a neural network that, even though it falls short from state of the art accuracy of 98,0%, has an expressive accuracy of 92,6%.
Informações adicionais: Trabalho de Conclusão de Curso (graduação)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2018.
Licença: A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.
Aparece na Coleção:Engenharia Elétrica



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.