Skip navigation
Use este identificador para citar ou linkar para este item: https://repositorio.ufpe.br/handle/123456789/63997

Compartilhe esta página

Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisorCORNÉLIO, Márcio Lopes-
dc.contributor.authorFERREIRA, Bianca Carneiro da Cunha Nunes-
dc.date.accessioned2025-06-30T12:18:40Z-
dc.date.available2025-06-30T12:18:40Z-
dc.date.issued2025-04-04-
dc.date.submitted2025-04-22-
dc.identifier.citationFERREIRA, Bianca. Automatização da refatoração Extract Method com DeepSeek R1. 2025. Trabalho de Conclusão de Curso Engenharia da Computação - Universidade Federal de Pernambuco, Recife, 2025.pt_BR
dc.identifier.urihttps://repositorio.ufpe.br/handle/123456789/63997-
dc.description.abstractEste trabalho investiga o uso de Large Language Models (LLMs) para a automatização da refatoração Extract Method. O estudo utiliza modelos da família DeepSeek-R1, especificamente as variantes Qwen 1.5B, Qwen 7B e LLaMa 8B, para sugerir refatorações em projetos open-source Java. Além disso, é analisado o Chain of Thought (CoT) gerado pelos modelos para identificar se os modelos relacionam code smells à necessidade de refatoração. Para validar a eficácia das refatorações, são realizados testes estatísticos com métricas como Levenshtein Ratio, número de palavras repetidas no CoT e proximidade das sugestões ao baseline. Os resultados indicam que os modelos sugeriram refatorações, em sua maioria, desnecessárias. O Qwen 7B apresentou o CoT mais conciso e menos redundante, mas os CoT não demonstraram uma associação entre code smells e as refatorações sugeridas. Esse estudo destaca tanto o potencial quanto as limitações dos LLMs na refatoração automática de código. Para trabalhos futuros, é proposto aprimorar os prompts, explorar modelos mais avançados e executar os testes em outros datasets, com outras linguagens de programação, ou com foco nos maus cheiros ou em outras refatorações.pt_BR
dc.format.extent45p.pt_BR
dc.language.isoporpt_BR
dc.rightsopenAccesspt_BR
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/pt_BR
dc.subjectRefatoração de códigopt_BR
dc.subjectExtract Methodpt_BR
dc.subjectLarge Language Modelspt_BR
dc.subjectDeepSeek-R1pt_BR
dc.subjectChain of Thoughtpt_BR
dc.subjectCode Smellspt_BR
dc.titleAutomatização da refatoração Extract Method com DeepSeek R1pt_BR
dc.typebachelorThesispt_BR
dc.degree.levelGraduacaopt_BR
dc.contributor.advisorLatteshttp://lattes.cnpq.br/3776948564582273pt_BR
dc.description.abstractxThis study investigates the use of Large Language Models (LLMs) for automating the Extract Method refactoring. The research utilizes models from the DeepSeek-R1 family, specifically the Qwen 1.5B, Qwen 7B, and LLaMa 8B variants, to suggest refactorings in open-source Java projects. Additionally, the Chain of Thought (CoT) generated by the models is analyzed to determine whether they associate code smells with the need for refactoring. To validate the effectiveness of the refactorings, statistical tests are conducted using metrics such as the Levenshtein Ratio, the number of repeated words in the CoT, and the proximity of suggestions to the baseline. The results indicate that the models mostly suggested unnecessary refactorings. The Qwen 7B model produced the most concise and least redundant CoT; however, the CoT did not demonstrate an association between code smells and the suggested refactorings. This study highlights both the potential and limitations of LLMs in automatic code refactoring. For future work, it is proposed to improve the prompts, explore more advanced models, and conduct tests on other datasets, with different programming languages, or focus on code smells or other refactorings.pt_BR
dc.subject.cnpqÁreas::Ciências Exatas e da Terrapt_BR
dc.degree.departament(CIN-DEC) - Departamento de Engenharia da Computaçãopt_BR
dc.degree.graduationEngenharia da Computaçãopt_BR
dc.degree.grantorUniversidade Federal de Pernambucopt_BR
dc.degree.localRecifept_BR
Aparece nas coleções:(TCC) - Engenharia da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
TCC Bianca Carneiro da Cunha Nunes Ferreira.pdf1,23 MBAdobe PDFThumbnail
Visualizar/Abrir


Este arquivo é protegido por direitos autorais



Este item está licenciada sob uma Licença Creative Commons Creative Commons