Título: | Redes neurais para improviso musical interativo |
Autor(es): | Grilo, Thales Gonçalves |
Orientador(es): | Garcia, Luís Paulo Faina |
Assunto: | Redes neurais (Computação) Inteligência artificial Música - representação computacional |
Data de apresentação: | 3-Nov-2021 |
Data de publicação: | 27-Jun-2022 |
Referência: | GRILO, Thales G. Redes neurais para improviso musical interativo. 2021. xii, 52 f., il. Trabalho de conclusão de curso (Bacharelado em Ciência da Computação) — Universidade de Brasília, Brasília, 2021. |
Resumo: | O improviso musical, às vezes definido como Composição Instantânea, é parte quase imprescindível à maioria dos processos de criação musical. Apesar de novos modelos de Aprendizado de Máquina permitem a síntese de música com estrutura elaborada, o improviso musical humano-máquina permanece um desafio longevo. Os sistemas desenvolvidos para criação musical automatizada possuem limitações que restringem seu uso a casos específicos, e nenhum permite o uso de modelos diferentes para geração de improviso em cenários dinâmicos. Por não haver uma quantificação padrão de qualidade musical, é difícil avaliar resultados de modelos de improviso. Além disso, ainda não existe um consenso com relação a métricas de avaliação, avaliações objetivas são escassas e há poucas comparações entre modelos distintos. Estudando os sistemas de geração musical encontrados na literatura e suas limitações, esse trabalho propõe o conceito de um Sistema de Geração DinâmicaMusical,classedesistemasquepermitemageraçãoautomatizadadeimproviso. Esse trabalho define as características primárias de sistemas dessa classe e propõe uma nova arquitetura com menos limitações. A abordagem proposta baseia-se na adaptação de algoritmos de Modelagem de Sequência para geração dinâmica, permitindo incorporar à geração de improviso os avanços recentes em composição musical baseada em Aprendizado de Máquina. Para validar essa adaptação, o trabalho emprega o estado da arte em avaliação de geração musical, estendendo a metodologia avaliativa proposta para incluir parâmetros novos, específicos à geração dinâmica. Tomando como base Modelos de Sequência voltados à geração estática de música, compara-se os resultados obtidos entre suas versões originais e adaptadas através de duas avaliações complementares: uma quantitativa, com base em dois indicadores de distância entre métricas objetivas (OverlapeKL-Divergence) e uma qualitativa, composta de um Teste de Turing e de um estudo de preferência. Os autores validam assim a adaptação proposta, mostrando que a qualidade musical de modelos adaptados se preserva com relação a um conjunto de métricas objetivas e subjetivas. Isso constitui uma prova de conceito importante que pode servir de base a trabalhos futuros. |
Abstract: | Musical Improvisation, or Instantaneous Composition as it is often defined, is historically an intrisic component to most of music creation. Even though new Machine Learning models allow for the synthesis of music with elaborate structure, human-machine musical improvisation remains a long-withstanding challenge. Systems designed for automated music creation show limitations that restrict their use to specific use-cases, and none was found which allowed for the use of different models for the same task. Moreover, since thereisnostandardquantificationofmusicalquality,it’sdifficulttoevaluateworksinthis area, and evaluations found in literature are precarious when compared to other areas of Artificial Intelligence. Objective model evaluations are scarce and the comparison of different models tends to be very limited. Investigating the music generation systems found in literature and their limitations, this work proposes the concept of a Dynamic Music Generation System (DMGS), a class of systems that allow for the automated generation of musical improvisation. It also defines the primary qualities of systems of that kind and proposes a new implementation that aims to overcome the limitations of its alternatives. The approach is based on the adaptation of Sequence Models for dynamic generation, allowing recent advancements in Machine Learning-based musical composition to be incorporated into improvisation generation. To validate this adaptation, the authors use the state of the art in objective evaluation of musical generation, extending the proposed methodtoincludenewparameterswhicharespecifictodynamicgeneration. Thismethod is then used to validate the proposed adaptation, showing that the musical quality of the adapted models is preserved in regards to a set of objective metrics. This constitutes an important proof of concept that can be extended further on future works in the area of automatic music generation. |
Informações adicionais: | Trabalho de conclusão de curso (graduação) — Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2021. |
Licença: | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta. |
Aparece na Coleção: | Ciência da Computação
|
Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.