Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/29805
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2021_IngridBorgesDeAzevedo_tcc.pdf916,57 kBAdobe PDFver/abrir
Registro completo
Campo Dublin CoreValorLíngua
dc.contributor.advisorLage, Fernanda de Carvalho-
dc.contributor.authorAzevedo, Ingrid Borges de-
dc.identifier.citationAZEVEDO, Ingrid Borges de. Reconhecimento facial e direito: propostas para uma IA antidiscriminatória. 2021. 65 f. Trabalho de Conclusão de Curso (Bacharelado em Direito)—Universidade de Brasília, Brasília, 2021.pt_BR
dc.descriptionTrabalho de Conclusão de Curso (graduação)—Universidade de Brasília, Faculdade de Direito, 2021.pt_BR
dc.description.abstractO presente trabalho se dedica a analisar a implementação do reconhecimento facial na aplicação da lei por agentes públicos e a propor medidas para o emprego de uma IA antidiscriminatória. Desse modo, o trabalho analisa a implementação da inteligência artificial no contexto jurídico, a exemplo dos sistemas utilizados nos tribunais brasileiros, bem como a existência de vieses algorítmicos e a discriminação humana reproduzida pelos sistemas de inteligência artificial. Ademais, analisa a existência de falhas e de reprodução do racismo no uso do reconhecimento facial. A partir daí, propõe medidas para uma regulação capaz de garantir transparência, antidiscriminação e a proteção dos direitos individuais. Dentre as medidas estão a diversificação de rostos inseridos nas máquinas de IA para treinarem a detecção de rostos com faces de diversas etnias e gêneros; a existência de um fórum para que as pessoas relatem as falhas e discriminações dos sistemas; a criação de um grupo de estudo para pesquisar constantemente regulações para se propor sistemas mais justos; a divulgação de relatórios de impacto sobre os vieses algorítmicos e a proteção dos dados dos usuários. a inserção de rostos distintos nos sistemas de IA, a criação de relatórios de impacto da igualdade, depoimentos de violações de direitos ou de falhas cometidas pela IA.pt_BR
dc.rightsAcesso Abertopt_BR
dc.subject.keywordInteligência artificialpt_BR
dc.subject.keywordReconhecimento automático da facept_BR
dc.subject.keywordDireito - produção de provaspt_BR
dc.subject.keywordDireito penalpt_BR
dc.titleReconhecimento facial e direito : propostas para uma IA antidiscriminatóriapt_BR
dc.typeTrabalho de Conclusão de Curso - Graduação - Bachareladopt_BR
dc.date.accessioned2022-02-08T13:46:09Z-
dc.date.available2022-02-08T13:46:09Z-
dc.date.submitted2021-11-03-
dc.identifier.urihttps://bdm.unb.br/handle/10483/29805-
dc.language.isoPortuguêspt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.pt_BR
dc.description.abstract1This paper aims to analyze the use of facial recognition technology in law enforcement by public agentes and to propose avenues to promote algorithmic fairness. Thereby, the paper analyzes the use of artificial intelligence in the legal context like the systems used in Brazilian courts, as well as the existence of algorithmic biases and the human discrimination reproduced by artificial intelligence systems. Furthermore it analyzes the existence of failure and the racism’s reproduction in the recognition facial’s use. In this way, propose avenues to a regulation able to guarantee transparency, antidiscrimination and the protection of individual rights. Among the measures are the diversification of faces inserted in AI machines to detect faces of different ethnicities and genders, the creation of a forum for people to report on system failures and discriminations, the creation of a study group to constantly research regulations to propose fairer systems, a disclosure of impact report on algorithmic biases and the protection of user data, the insertion of distinct faces in the AI systems, the creation of equality impact report, depositions of rights violations or failures committed by the AI.pt_BR
Aparece na Coleção:Direito



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.