Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/28129
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2019_MarceloGuedesFranca_tcc.pdf3,26 MBAdobe PDFver/abrir
Registro completo
Campo Dublin CoreValorLíngua
dc.contributor.advisorSilva, Eduardo Peixoto Fernandes da-
dc.contributor.authorFrança, Marcelo Guedes-
dc.identifier.citationFRANÇA, Marcelo Guedes. Compressão de imagens usando redes neurais artificiais. 2019. 96 f., il. Trabalho de conclusão de curso (Bacharelado em Engenharia Elétrica)—Universidade de Brasília, Brasília, 2019.pt_BR
dc.descriptionTrabalho de conclusão de curso (graduação)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2019.pt_BR
dc.description.abstractA compressão de imagens é um tópico exaustivamente estudado dentro da ciência, em busca de representar a informação de forma mais compacta possível. Esse esforço é justificado pelo grande tráfego dessa mídia pela Internet. Logo, qualquer redução nos dados economiza significativamente na largura de banda e no consumo de energia elétrica. Recentemente, pesquisas de algoritmos baseados em redes neurais artificiais para compressão de imagens têm alcançado resultados com enorme potencial. Em particular, a abordagem ponta-ponta na qual o codificador e decodificador são treinados em conjunto por uma rede conhecida como autocodifcador está presente na maioria desses trabalhos. Esta rede pode ser baseada somente em camadas convolucionais e exigem, geralmente, o treinamento de diversos modelos para comprimir a informação em diferentes taxas. Con tudo, autocodificadores com redes recorrentes são úteis para obter um único modelo capaz de fornecer taxas progressivas, ao usar a capacidade dessas redes em manter informações passadas. Há ainda autocodificadores esparsos onde apenas uma pequena parcela das saídas envolvidas na representação da informação é ativada, e a abordagem variacional que assume modelos probabilísticos para aprender representações latentes. Neste trabalho, realizamos modificações em trabalhos anteriores baseados em redes neu rais convolucionais e recorrentes para compressão de imagem com perdas. Primeiro, avali amos bases de dados com diferentes características de entropia no desempenho do modelo. Em seguida, foram realizados testes com diferentes funções de custo até obtermos uma me dida para otimizar a distorção e, de forma indireta, a taxa. O melhor desempenho ocorreu quando a distorção foi modelada pelo erro quadrático médio e a taxa pela quantidade de bits 1 presentes no código binário. Essa última função foi responsável por promover esparsidade no fluxo de bits, e permitir a codificação de entropia, fornecida pelo GZIP, redução conside rável na taxa. Por fim, propomos um esquema simples de alocação de bits para aproveitar as diferenças de complexidades nas regiões de uma imagem. Os nossos resultados indicam melhor desempenho em relação ao JPEG nas medidas de PSNR, SSIM e MS-SSIM. Ao comparar esses resultados com o JPEG2000 obtemos desem penho competitivo em altas taxas. Todavia, o método de alocação dinâmica de bits gera artefatos de blocos que degradam a qualidade perceptiva das imagens.pt_BR
dc.rightsAcesso Abertopt_BR
dc.subject.keywordCompressão de dadospt_BR
dc.subject.keywordRedes neurais (Computação)pt_BR
dc.subject.keywordImagens - resoluçãopt_BR
dc.subject.keywordDecodificação de imagenspt_BR
dc.titleCompressão de imagens usando redes neurais artificiaispt_BR
dc.typeTrabalho de Conclusão de Curso - Graduação - Bachareladopt_BR
dc.date.accessioned2021-08-11T14:38:57Z-
dc.date.available2021-08-11T14:38:57Z-
dc.date.submitted2019-11-27-
dc.identifier.urihttps://bdm.unb.br/handle/10483/28129-
dc.language.isoPortuguêspt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.pt_BR
dc.description.abstract1Image compression is a topic exhaustively studied within science, in order to represent in formation in the more compact way possible. This effort is justified by the great traffic of this media over the Internet. Therefore, any reduction in data saves significantly in bandwidth and electricity consumption. Recently, research of algorithms based on artificial neural net works for image compression has achieved results with enormous potential. In particular, the end-to-end approach in which encoder and decoder are trained together is present in works t traditional image compression methods. In particular, the end-to-end approach in which encoder and decoder are trained together by a network known as autoencoder is present in most such works. This network can be based only on convolutional layers and generally requires training of various models to compress information at different compression ratios. However, autoencoders with recurrent networks are useful for obtaining a single model capable of providing progressive rates by using the capacity of these networks to keep past information. There are also sparse autoencoder where only a small portion of the outputs involved in information representation are activated, and the variational approach that assumes probabilistic models for learning latent representations. In this work, we made modifications in previous works based on recurrent convolutional neural networks for lossy image compression. First, we evaluated different training databases with specific entropy characteristics in model performance.Then, tests with different cost functions were performed until we obtained a measure to optimize distortion and, indirectly, the rate. The best performance occurred when the distortion was modeled by the mean square error and the rate of bits equal to 1 present in the binary code. This last function was responsible for promoting sparity bitstream, and thus allowing GZIP’s entropy coding to considerably reduce at rate. Finally, we propose a simple bit allocation scheme to take advantage of the complexity difference in the regions of an image. Our results indicate better performance over JPEG on the PSNR, SSIM, and MS-SSIM measurements. By comparing these results with the JPEG2000 we get competitive perfor mance at high rates. However, the dynamic bit allocation method generates block artifacts that degrade the perceptual image quality.pt_BR
Aparece na Coleção:Engenharia Elétrica



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.