Campo Dublin Core | Valor | Língua |
dc.contributor.advisor | Farias, Mylène Christine Queiroz de | - |
dc.contributor.author | Assis, João Lucas Vale | - |
dc.identifier.citation | ASSIS, João Lucas Vale. Análise de modelos de aprendizado de máquina para detecção de notícias falsas. 2022. 75 f., il. Trabalho de conclusão de curso (Bacharelado em Engenharia de Redes de Comunicação) — Universidade de Brasília, Brasília, 2022. | pt_BR |
dc.description | Trabalho de Conclusão de Curso (graduação) — Universidade de Brasília, Faculdade de Tecnologia, 2022. | pt_BR |
dc.description.abstract | Informação é um componente crucial hoje para se viver e se localizar na sociedade atual. Um
mundo cada vez mais globalizado exige o acesso simplificado e ágil a notícias e acontecimentos
em qualquer parte do planeta. Tais informações ajudam a moldar e formar opiniões que movem
e influenciam diretamente as atitudes dos seres humanos. Hoje, de maneira idealizada, quem está
sintonizado com a realidade exposta pelos grandes meios de comunicação se encontra a par de tomar
decisões que vão de acordo com o momento atual. Desde o início dos anos 1990, uma quantidade
sem precedentes de informações são divulgadas pelo mundo, propulsionadas pelas tecnologias cria das com o advento da Internet. Quantificando essa informação, em 2020, 64,2 Zettabytes de dados
foram criados, capturados, copiados e consumidos globalmente, segundo previsões calculados pelo
Statista 1
. Tamanha quantidade de informações levantam questões essenciais para a análise de
quem as consome, como por exemplo: como saber que dada informação é verdadeira? É possível
confiar na análise racional humana, alinhada a ferramentas que nos permitem comparar uma in formação com fatos já registrados pelos jornais, artigos científicos, livros e muitos outros meios de
registros confiáveis de informações sobre o mundo. Mas seria possível confiar que todo e qualquer
ser humano tem tais meios de verificar e checar por si a veracidade de uma informação?
O presente trabalho possui o objetivo de analisar a possibilidade da utilização de aprendizado
de máquina como ferramenta acessível aos usuários brasileiros de redes sociais para que possam
filtrar e classificar notícias como verdadeiras ou falsas. Como uma vertente do estudo em inteli gência artificial, o aprendizado de máquina parte do princípio de programar um computador com
o objetivo de agilizar e otimizar uma dada tarefa automatizada, no nosso caso, a classificação de
notícias. Notícias podem ser classificadas utilizando a lógica humana alinhada a conhecimentos
históricos, mas esse tipo de abordagem se torna muito complexa para um algoritmo computacional
realizar. Nesse caso, a análise realizada foi feita de forma a identificar padrões na escrita ou no
viés das palavras utilizadas nas notícias incluídas no dataset. Esse é um tipo de abordagem que
poderia processar volumes muito grandes de dados em pouco tempo e ajudar usuários a identifica rem prováveis notícias falsas. Foi analisado o desempenho de diversos algoritmos já existentes de
aprendizado de máquina e escolhido o modelo PAC - Passive Agressive Classifier como ênfase do
estudo. Os motivos da escolha são: a sua baixa complexidade computacional e o fato de ter obtido
as melhores métricas de performance (92% de acurácia). Utilizando de dados originários de bancos
de dados de notícias de cunho jornalístico e também bancos de dados de boatos e notícias falsas
compartilhadas em redes sociais como WhatsApp e Facebook, analisaremos o panorama Brasileiro
de compartilhamento de notícias online e a possibilidade de mitigação do impacto causado pela desinformação fazendo uso de inteligência artificial. | pt_BR |
dc.rights | Acesso Aberto | pt_BR |
dc.subject.keyword | Aprendizado de máquina | pt_BR |
dc.subject.keyword | Aprendizado do computador | pt_BR |
dc.subject.keyword | Fake news | pt_BR |
dc.subject.keyword | Notícias falsas | pt_BR |
dc.title | Análise de modelos de aprendizado de máquina para detecção de notícias falsas | pt_BR |
dc.type | Trabalho de Conclusão de Curso - Graduação - Bacharelado | pt_BR |
dc.date.accessioned | 2023-04-06T15:41:42Z | - |
dc.date.available | 2023-04-06T15:41:42Z | - |
dc.date.submitted | 2022-05 | - |
dc.identifier.uri | https://bdm.unb.br/handle/10483/34489 | - |
dc.language.iso | Português | pt_BR |
dc.rights.license | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta. | pt_BR |
dc.description.abstract1 | Information is a crucial component today for living and locating in today’s society. An incre asingly globalized world requires simplified and agile access to news and events anywhere on the
planet. Such information helps to shape and form opinions that move and directly influence the at titudes of human beings. Today, in an idealized way, those who are in tune with the reality exposed
by the mass media are aware of making decisions that are in line with the current moment. Since
the early 1990s, an unprecedented amount of information has been disseminated around the world,
driven by technologies created with the advent of the Internet. Quantifying this information, in
2020, 64.2 Zettabytes of data were created, captured, copied and consumed globally, according to
forecasts calculated by Statista 2
. Such amount of information raises essential questions for the
analysis of who consumes it, such as: how to know that given information is true? It is possible
to rely on human rational analysis, aligned with tools that allow us to compare information with
facts already recorded in newspapers, scientific articles, books and many other means of reliable
records of information about the world. But would it be possible to trust that each and every
human being has such means of verifying and checking for himself the veracity of information?
The present work has the objective of analyzing the possibility of using machine learning as a
tool accessible to brazilian users of social networks so that they can filter and classify news as true or
false. As an aspect of the study of artificial intelligence, machine learning starts from the principle
of programming a computer with the objective of speeding up and optimizing a given automated
task, in our case, the classification of news. News can be classified using human logic aligned
with historical knowledge, but this type of approach becomes too complex for a computational
algorithm to perform. Thus, the analysis performed was carried out in order to identify patterns
in the writing or in the bias of the words used in the news included in the dataset. This is a type of
approach that could process very large volumes of data in a short time and help users to identify
likely fake news. The performance of several existing machine learning algorithms was analyzed
and the PAC - Passive Aggressive Classifier model was chosen as the emphasis of the study. The
reasons for choosing it are: its low computational complexity and the fact that it obtained the
best performance metrics (92% accuracy). Using data from journalistic news databases and also
databases of rumors and fake news shared on social networks such as WhatsApp and Facebook,
we will analyze the Brazilian panorama of online news sharing and the possibility of mitigating
the impact caused by disinformation by making use of artificial intelligence. | pt_BR |
Aparece na Coleção: | Engenharia de Redes de Comunicação
|