Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/34374
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2022_GabrielCorreiaDeVasconcelos_tcc.pdfTrabalho de Conclusão de Curso3,45 MBAdobe PDFver/abrir
Título: Estudo comparativo para classificação automática de viés político avaliados com técnicas de explicabilidade
Autor(es): Vasconcelos, Gabriel Correia de
Orientador(es): Faleiros, Thiago de Paulo
Assunto: Aprendizado de máquina
Processamento de linguagem natural (Computação)
Inteligência artificial
Data de apresentação: 22-Abr-2022
Data de publicação: 29-Mar-2023
Referência: VASCONCELOS, Gabriel Correia de. Estudo comparativo para classificação automática de viés político avaliados com técnicas de explicabilidade. 2022. 97 f., il. Trabalho de Conclusão de Curso (Bacharelado em Engenharia da Computação) — Universidade de Brasília, Brasília, 2022.
Resumo: O viés, seja explícito ou implícito, é um fenômeno inevitável na produção de textos. Estimar o viés político em um texto de forma manual é um processo laborioso e demorado, que necessita da ajuda de seres humanos qualificados e que também podem adicionar seus vieses. Com o auxílio da tecnologia, este trabalho se propõe a estimar o viés político de textos de forma automática, a partir de modelos de aprendizagem de máquina supervisionada. São realizados diversos experimentos que comparam um conjunto de classificadores a partir de métricas de avaliação tradicionais, que atingem um macro F-1 score de 0.61. Entretanto, ainda faltam trabalhos que tragam explicações interpretáveis para quais fatores influenciaram na classificação do viés. Por isto, este projeto utiliza um método de explicabilidade chamado LIME, que permite a geração de explicações locais e globais das predições de qualquer modelo. A análise destas explicações contribui para o melhor entendimento dos vieses políticos presentes em qualquer texto e do próprio modelo em si.
Abstract: Bias, explicit or implicit, is an inevitable phenomenon in the writing of texts. Identify ing the political bias in a text manually is a time-consuming and laborious process that requires qualified human attention and can add its own biases as well. Powered by tech nology, this work proposes to estimate the political bias of texts automatically, based on supervised machine learning models. A set of experiments were designed to compare a variety of classifiers based on traditional evaluation metrics, that ultimately achieve a macro F-1 score of 0.61. However, there is still a lack of studies that provide interpretable explanations for which factors influenced the classification of bias. Therefore, this project applies an explainability method called LIME, which allows the generation of local and global explanations of the predictions of any model. The analysis of these explanations contributes to a better understanding of the political biases present in any text and of the model itself.
Informações adicionais: Trabalho de Conclusão de Curso (graduação) — Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2022.
Licença: A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.
Aparece na Coleção:Engenharia da Computação



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.