Campo Dublin Core | Valor | Língua |
dc.contributor.advisor | Cajueiro, Daniel Oliveira | - |
dc.contributor.author | Batista Júnior, Eli José | - |
dc.identifier.citation | BATISTA JÚNIOR, Eli José. Biases in machine learning : (vieses em aprendizagem de máquinas). 2024. 31 f., il. Trabalho de Conclusão de Curso (Bacharelado em Ciências Econômicas) — Universidade de Brasília, Brasília, 2024. | pt_BR |
dc.description | Trabalho de Conclusão de Curso (graduação) — Universidade de Brasília, Faculdade de Economia, Administração, Contabilidade e Gestão de Políticas Públicas, Departamento de Economia, 2024. | pt_BR |
dc.description.abstract | Apresentamos uma revisão das métricas de Machine Learning, abordando o desafio de equilibrar
mitigação de preconceitos com aumento da precisão do modelo, com foco na busca de modelos de ML justos.
Começamos definindo preconceitos, elencando possíveis formas de ocorrência, bem como os contextos
em que surgem. Em seguida, analisamos potenciais critérios que podem servir de base para
definir justiça, a fim de estabelecer possíveis métricas para implementação em algoritmos.
Cada métrica representa apenas parcialmente critérios de justiça, e o desenvolvedor deve escolher qual
aqueles a serem priorizados dependendo do contexto em que a ferramenta de ML será usada. Finalmente, nós
apresentar uma análise estatística das principais métricas, visando garantir a conciliação entre
critérios técnicos, ético-filosóficos e legais. | pt_BR |
dc.rights | Acesso Aberto | pt_BR |
dc.subject.keyword | Aprendizado de máquina | pt_BR |
dc.subject.keyword | Inteligência artificial | pt_BR |
dc.title | Biases in machine learning : (vieses em aprendizagem de máquinas) | pt_BR |
dc.type | Trabalho de Conclusão de Curso - Graduação - Bacharelado | pt_BR |
dc.date.accessioned | 2024-12-12T11:50:32Z | - |
dc.date.available | 2024-12-12T11:50:32Z | - |
dc.date.submitted | 2024-10-15 | - |
dc.identifier.uri | https://bdm.unb.br/handle/10483/40930 | - |
dc.language.iso | Inglês | pt_BR |
dc.rights.license | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta. | pt_BR |
dc.description.abstract1 | We present a review of Machine Learning metrics, addressing the challenge of balancing
bias mitigation with increasing model accuracy, focusing on the pursuit of fair ML models.
We begin by defining bias, listing possible forms of occurrence, as well as the contexts
in which they arise. We then analyze potential criteria that can serve as the basis for
defining fairness, in order to establish possible metrics for implementation in algorithms.
Each metric only partially represents fairness criteria, and the developer must choose which
ones to prioritize depending on the context in which the ML tool will be used. Finally, we
present a statistical analysis of the main metrics, aiming to ensure the conciliation between
technical, ethical-philosophical, and legal criteria. | pt_BR |
Aparece na Coleção: | Ciências Econômicas
|