Skip navigation
Use este identificador para citar ou linkar para este item: https://repositorio.ufpe.br/handle/123456789/65239

Compartilhe esta página

Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisorSAMPAIO, Augusto Cezar Alves-
dc.contributor.authorSILVA, Andresa Almeida da-
dc.date.accessioned2025-08-20T15:48:40Z-
dc.date.available2025-08-20T15:48:40Z-
dc.date.issued2025-04-11-
dc.date.submitted2025-04-28-
dc.identifier.citationSILVA, Andresa Almeida da. Generating test-based domain models via large language models. 2025. Trabalho de Conclusão de Curso (Engenharia da Computação) – Universidade Federal de Pernambuco, Recife, 2025.pt_BR
dc.identifier.urihttps://repositorio.ufpe.br/handle/123456789/65239-
dc.description.abstractA inteligência artificial generativa, particularmente os Modelos de Linguagem de Grande Escala (LLMs), revolucionou várias etapas do ciclo de vida do software, como elicitação de requisitos, geração de código, especificação formal e criação de modelos. Na modelagem de software, os modelos de domínio são representações abstratas de conceitos, entidades e relações dentro de um domínio específico, servindo como guia para soluções e design de software. Considerada uma parte crítica do desenvolvimento de software, essa tarefa exige especialistas com conhecimento no domínio e recursos significativos de tempo, já que geralmente é uma tarefa manual que demanda considerável esforço. Este trabalho propõe uma abordagem sistemática para gerar modelos de domínio para a atividade de testes de software (modelos de domínio baseados em testes) a partir de casos de teste em linguagem natural usando o Gemini. Incorporamos um conjunto de regras com um solucionador ASP para garantir consistência estrutural e aplicamos o SBERT para validar os aspectos semânticos dos modelos gerados. Comparamos técnicas de engenharia de prompts e avaliamos o desempenho do Gemini na geração de modelos de domínio com e sem ciclos de interação de feedback, e sob a orientação de modelos de domínio de referência. Os resultados indicam que a eficácia do Gemini na produção de modelos de domínio consistentes é influenciada pela complexidade do domínio e pelo feedback, alcançando 80-90% de satisfatibilidade em domínios mais simples, com o feedback melhorando significativamente a qualidade do modelo. No entanto, a análise mostra que, independentemente da abordagem, a LLM ainda enfrenta limitações na inferência de associações, como dependência, instanciação e cancelamento.pt_BR
dc.format.extent50p.pt_BR
dc.language.isoengpt_BR
dc.rightsopenAccesspt_BR
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/pt_BR
dc.subjectDomain Modelpt_BR
dc.subjectLLMpt_BR
dc.subjectSoftware Testingpt_BR
dc.titleGenerating test-based domain models via large language modelspt_BR
dc.typebachelorThesispt_BR
dc.contributor.advisor-coARRUDA, Filipe-
dc.contributor.authorLatteshttp://lattes.cnpq.br/5343221026322748pt_BR
dc.degree.levelGraduacaopt_BR
dc.contributor.advisorLatteshttp://lattes.cnpq.br/3977760354511853pt_BR
dc.description.abstractxThe generative artificial intelligence, particularly Large Language Models, has revolutionized various stages of the software life cycle, such as requirements elicitation, code generation, formal specification, and model creation. In software modelling, domain models are abstract representations of concepts, entities, and relationships within a specific problem domain, serving as a guide for software solutions and design. Considered a critical aspect of software development, it requires specialists with domain expertise and significant time resources, as it is typically a manual task that demands considerable effort. This work proposes a systematic approach to generate domain models for the software testing activity (test-based domain models) from natural language test cases using Gemini. We incorporate a set of rules with an ASP solver to ensure structural consistency and apply SBERT to validate semantic aspects of the generated models. We compare prompt engineering techniques and evaluate Gemini’s performance in generating domain models with and without interaction cycles of feedback, and under the guidance of ground-truth domain models. The results indicate that Gemini’s effectiveness in producing consistent, test-based domain models, is influenced by domain complexity and feedback, achieving 80-90% satisfiability in simpler domains, with feedback significantly improving model quality. However, our analysis shows that regardless of the approach, the LLM still encounters limitations when inferring associations such as dependency, instantiation, and cancellation.pt_BR
dc.subject.cnpqÁreas::Ciências Exatas e da Terrapt_BR
dc.degree.departament::(CIN-DCC) - Departamento de Ciência da Computaçãopt_BR
dc.degree.graduation::CIn-Curso de Engenharia da Computaçãopt_BR
dc.degree.grantorUniversidade Federal de Pernambucopt_BR
dc.degree.localRecifept_BR
dc.contributor.advisor-coLatteshttp://lattes.cnpq.br/4240670677976713pt_BR
Aparece nas coleções:(TCC) - Engenharia da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
TCC Andresa Almeida da Silva.pdf518,32 kBAdobe PDFThumbnail
Visualizar/Abrir


Este arquivo é protegido por direitos autorais



Este item está licenciada sob uma Licença Creative Commons Creative Commons