Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/34021
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2022_JoberthRogersTavaresCosta.pdf4,35 MBAdobe PDFver/abrir
Registro completo
Campo Dublin CoreValorLíngua
dc.contributor.advisorPedrosa, Glauco Vitor-
dc.contributor.authorCosta, Jôberth Rogers Tavares-
dc.identifier.citationCOSTA, Jôberth Rogers Tavares. Aplicação de Deep Learning para análise de sentimentos a partir de imagens. 2022. 54 f., il. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Software) — Universidade de Brasília, Brasília, 2022.pt_BR
dc.descriptionTrabalho de Conclusão de Curso (graduação) — Universidade de Brasília, Faculdade UnB Gama, Engenharia de Software, 2022.pt_BR
dc.description.abstractCom o crescente número de compartilhamentos de imagens nos últimos anos, o surgimento de pesquisas na área da inteligência artificial para o reconhecimento de conteúdos visuais também cresceu consideravelmente. Entre essas pesquisas destaca-se o uso do Deep Learning para o entendimento automatizado do sentimento compartilhado através das mídias digitais. Entretanto, predizer sentimentos é uma tarefa complexa, visto que, devido à subjetividade humana, conteúdos similares podem ser interpretados de maneiras diferentes. Este trabalho apresenta o desenvolvimento de duas abordagens diferentes envolvendo a área de Deep Learning, de modo a analisar os sentimentos expressos por imagens digitais considerando duas classes (Positiva e Negativa). Uma abordagem analisa diretamente o conteúdo visual da imagem, enquanto a outra faz uma interpretação textual do conteúdo da mídia para posteriormente, categorizar o sentimento da figura com base na legenda extraída. Ambas as abordagens tiveram resultados praticamente semelhantes, mas durante o processo de benchmark, o resultado favoreceu a abordagem visual com um valor de 63% de acurácia devido sua simplicidade em relação ao fluxo e a dificuldade da segunda abordagem em trazer sentimentos nas legenda durante o processo de descrição da figura. Para trabalhos futuros é sugerido o melhoramento das arquiteturas desenvolvidas até o momento e possivelmente a adição de novas arquiteturas de redes convolucionais para agregar ao benchmark coletado.pt_BR
dc.rightsAcesso Abertopt_BR
dc.subject.keywordImagens - análisept_BR
dc.subject.keywordInteligência artificialpt_BR
dc.titleAplicação de Deep Learning para análise de sentimentos a partir de imagenspt_BR
dc.typeTrabalho de Conclusão de Curso - Graduação - Bachareladopt_BR
dc.date.accessioned2023-03-03T19:07:17Z-
dc.date.available2023-03-03T19:07:17Z-
dc.date.submitted2022-05-05-
dc.identifier.urihttps://bdm.unb.br/handle/10483/34021-
dc.language.isoPortuguêspt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.pt_BR
dc.description.abstract1With the increasing number of image shares in recent years, the emergence of research in the field of artificial intelligence for the recognition of visual content has also grown considerably. Among these researches, the use of Deep Learning for the automated understanding of shared feelings through digital media stands out. However, predicting feelings is a complex task, since, due to human subjectivity, similar contents can be interpreted in different ways. This work presents the development of two different approaches involving the area of Deep Learning, to analyze the feelings expressed by digital images considering two classes (Positive and Negative). One approach directly analyzes the visual content of the image, while the other makes a textual interpretation of the media content to later categorize the feeling of the figure based on the extracted caption. Both approaches had practically similar results, but during the benchmark process, the result favored the visual approach with an accuracy value of 63% due to its simplicity of flow and the difficulty of the second approach in bringing feelings into the legend during the figure description process. For future work, it is suggested to improve the architectures developed so far and possibly the addition of new architectures of convolutional networks to add to the benchmark collected.pt_BR
Aparece na Coleção:Engenharia de Software



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.