Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/39838
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2024_GabrielBonifacioPerezNunes_tcc.pdf2,24 MBAdobe PDFver/abrir
Registro completo
Campo Dublin CoreValorLíngua
dc.contributor.advisorSilva, Nilton Correia da-
dc.contributor.authorNunes, Gabriel Bonifácio Perez-
dc.identifier.citationNUNES, Gabriel Bonifácio Perez. Análise de desempenho de grandes modelos de linguagem no desenvolvimento de código em python. 2024. 62 f., il. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Software) — Universidade de Brasília, Gama, 2024.pt_BR
dc.descriptionTrabalho de Conclusão de Curso (graduação) — Universidade de Brasília, Faculdade UnB Gama, Engenharia de Software, 2024.pt_BR
dc.description.abstractA crescente adoção da inteligência artificial no cotidiano levanta questões sobre seu impacto no trabalho humano. Este estudo investiga até que ponto modelos avançados de inteligência artificial podem se equiparar a um desenvolvedor de software na geração de códigos de programação, além de analisar a diferença de desempenho entre os modelos abordados. O foco está na avaliação da qualidade dos códigos gerados por esses grandes modelos de linguagem na tentativa de solucionar problemas de programação. A pesquisa utiliza métricas específicas para analisar a eficácia e a precisão dos códigos produzidos. Considerando a relevância e a falta de estudos detalhados nessa área da inteligência artificial para códigos de programação, o estudo examina a capacidade de modelos específicos que estão em destaque atualmente de resolver problemas de programação em Python. A análise se concentra em aspectos como exatidão, tempo de execução, uso de memória, presença de comentários e módulos, complexidade cognitiva e manutenabilidade. Os objetivos principais incluem enviar algumas questões de programação aos modelos, apresentar os resultados obtidos, analisar as métricas de desempenho e identificar quais modelos se destacam na compreensão e produção desses códigos.pt_BR
dc.rightsAcesso Abertopt_BR
dc.subject.keywordPython (Linguagem de programação de computador)pt_BR
dc.subject.keywordSoftware - qualidadept_BR
dc.subject.keywordInteligência artificialpt_BR
dc.titleAnálise de desempenho de grandes modelos de linguagem no desenvolvimento de código em pythonpt_BR
dc.typeTrabalho de Conclusão de Curso - Graduação - Bachareladopt_BR
dc.date.accessioned2024-09-09T21:28:33Z-
dc.date.available2024-09-09T21:28:33Z-
dc.date.submitted2024-07-12-
dc.identifier.urihttps://bdm.unb.br/handle/10483/39838-
dc.language.isoPortuguêspt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.pt_BR
dc.description.abstract1The increasing integration of artificial intelligence into daily life raises questions about its impact on human work. This study explores the extent to which advanced AI models can match a software developer in generating programming codes and assesses the performance differences among the covered models. The focus lies in evaluating the code quality generated by these language models in the attempt to solve programming problems. Specific metrics are employed in the research to analyze the effectiveness and accuracy of the produced code. Considering the significance and the lack of detailed studies in this area of artificial intelligence for programming code, the investigation delves into the capabilities of specific models that are currently highlighted in solving Python programming challenges. The analysis concentrates on aspects such as accuracy, execution time, memory usage, presence of comments and modules, cognitive complexity, and maintainability. The main objectives include sending some programming questions to the models, presenting the obtained results, analyzing the performance metric, and identifying which models excel in understanding and producing these codespt_BR
Aparece na Coleção:Engenharia de Software



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.