Skip navigation
Please use this identifier to cite or link to this item: https://repositorio.ufpe.br/handle/123456789/67848

Share on

Full metadata record
DC FieldValueLanguage
dc.contributor.advisorARAUJO, Cristiano Coelho de-
dc.contributor.authorSILVA, Wesley Alves da-
dc.date.accessioned2026-01-23T15:20:44Z-
dc.date.available2026-01-23T15:20:44Z-
dc.date.issued2024-10-08-
dc.date.submitted2024-10-31-
dc.identifier.citationDA SILVA, Wesley ALVES. Automated ENEM Essay Scoring and Feedbacks: A Prompt-Driven LLM Approach. 2024. Trabalho de Conclusão de Curso (Ciência da Computação) - Universidade Federal de Pernambuco, Recife, 2024pt_BR
dc.identifier.urihttps://repositorio.ufpe.br/handle/123456789/67848-
dc.description10pt_BR
dc.description.abstractThis paper presents a novel LLM-based solution for automated evaluation of essays from the National High School Exam (ENEM), the largest educational test in Brazil, addressing the significant gap in Portuguese-language automated essay scoring (AES). Leveraging a chain of meticulously crafted prompts and advanced LLM architectures, our system achieves 100% adjacent agreement with human raters across all five ENEM competencies and the final score, significantly outperforming existing methods. Beyond accurate scoring, the system generates detailed, competency-specific feedback, transforming it into a valuable learning tool for students. Our approach, based on prompt engineering and adhering strictly to official ENEM scoring rubrics, offers a robust and scalable solution for large-scale educational assessment in Portuguese, enhancing both efficiency and educational value.pt_BR
dc.language.isoengpt_BR
dc.rightsopenAccesspt_BR
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/pt_BR
dc.subjectLLMpt_BR
dc.subjectAESpt_BR
dc.subjectAutomated Essay Scoringpt_BR
dc.subjectPrompt Engineeringpt_BR
dc.subjectPrompt Chainingpt_BR
dc.subjectEssay Evaluationpt_BR
dc.titleAutomated ENEM essay scoring and feedbacks: a prompt-driven LLM approachpt_BR
dc.typebachelorThesispt_BR
dc.degree.levelGraduacaopt_BR
dc.contributor.advisorLatteshttp://lattes.cnpq.br/9638500605562489pt_BR
dc.description.abstractxEste artigo apresenta uma nova solução baseada em LLM para avaliação automatizada de redações do Exame Nacional do Ensino Médio (ENEM), o maior teste educacional do Brasil, abordando a lacuna significativa na pontuação automatizada de redações em português (AES). Aproveitando uma cadeia de prompts meticulosamente elaborados e arquiteturas avançadas de LLM, nosso sistema atinge 100% de concordância adjacente com avaliadores humanos em todas as cinco competências do ENEM e na pontuação final, superando significativamente os métodos existentes. Além da pontuação precisa, o sistema gera feedback detalhado e específico da competência, transformando-o em uma ferramenta de aprendizado valiosa para os alunos. Nossa abordagem, baseada em engenharia de prompt e aderindo estritamente às rubricas oficiais de pontuação do ENEM, oferece uma solução robusta e escalável para avaliação educacional em larga escala em português, aumentando a eficiência e o valor educacional.pt_BR
dc.subject.cnpqÁreas::Ciências Exatas e da Terra::Ciência da Computaçãopt_BR
dc.degree.departament::(CIN-DCC) - Departamento de Ciência da Computaçãopt_BR
dc.degree.graduation::CIn-Curso de Ciência da Computaçãopt_BR
dc.degree.grantorUniversidade Federal de Pernambucopt_BR
dc.degree.localRecifept_BR
Appears in Collections:(TCC) - Ciência da Computação

Files in This Item:
File Description SizeFormat 
tg-wesley.pdf322.41 kBAdobe PDFThumbnail
View/Open


This item is protected by original copyright



This item is licensed under a Creative Commons License Creative Commons