Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/29805
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2021_IngridBorgesDeAzevedo_tcc.pdf916,57 kBAdobe PDFver/abrir
Título: Reconhecimento facial e direito : propostas para uma IA antidiscriminatória
Autor(es): Azevedo, Ingrid Borges de
Orientador(es): Lage, Fernanda de Carvalho
Assunto: Inteligência artificial
Reconhecimento automático da face
Direito - produção de provas
Direito penal
Data de apresentação: 3-Nov-2021
Data de publicação: 8-Fev-2022
Referência: AZEVEDO, Ingrid Borges de. Reconhecimento facial e direito: propostas para uma IA antidiscriminatória. 2021. 65 f. Trabalho de Conclusão de Curso (Bacharelado em Direito)—Universidade de Brasília, Brasília, 2021.
Resumo: O presente trabalho se dedica a analisar a implementação do reconhecimento facial na aplicação da lei por agentes públicos e a propor medidas para o emprego de uma IA antidiscriminatória. Desse modo, o trabalho analisa a implementação da inteligência artificial no contexto jurídico, a exemplo dos sistemas utilizados nos tribunais brasileiros, bem como a existência de vieses algorítmicos e a discriminação humana reproduzida pelos sistemas de inteligência artificial. Ademais, analisa a existência de falhas e de reprodução do racismo no uso do reconhecimento facial. A partir daí, propõe medidas para uma regulação capaz de garantir transparência, antidiscriminação e a proteção dos direitos individuais. Dentre as medidas estão a diversificação de rostos inseridos nas máquinas de IA para treinarem a detecção de rostos com faces de diversas etnias e gêneros; a existência de um fórum para que as pessoas relatem as falhas e discriminações dos sistemas; a criação de um grupo de estudo para pesquisar constantemente regulações para se propor sistemas mais justos; a divulgação de relatórios de impacto sobre os vieses algorítmicos e a proteção dos dados dos usuários. a inserção de rostos distintos nos sistemas de IA, a criação de relatórios de impacto da igualdade, depoimentos de violações de direitos ou de falhas cometidas pela IA.
Abstract: This paper aims to analyze the use of facial recognition technology in law enforcement by public agentes and to propose avenues to promote algorithmic fairness. Thereby, the paper analyzes the use of artificial intelligence in the legal context like the systems used in Brazilian courts, as well as the existence of algorithmic biases and the human discrimination reproduced by artificial intelligence systems. Furthermore it analyzes the existence of failure and the racism’s reproduction in the recognition facial’s use. In this way, propose avenues to a regulation able to guarantee transparency, antidiscrimination and the protection of individual rights. Among the measures are the diversification of faces inserted in AI machines to detect faces of different ethnicities and genders, the creation of a forum for people to report on system failures and discriminations, the creation of a study group to constantly research regulations to propose fairer systems, a disclosure of impact report on algorithmic biases and the protection of user data, the insertion of distinct faces in the AI systems, the creation of equality impact report, depositions of rights violations or failures committed by the AI.
Informações adicionais: Trabalho de Conclusão de Curso (graduação)—Universidade de Brasília, Faculdade de Direito, 2021.
Licença: A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.
Aparece na Coleção:Direito



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.