Use este identificador para citar ou linkar para este item:
https://repositorio.ufpe.br/handle/123456789/65239
Compartilhe esta página
Registro completo de metadados
Campo DC | Valor | Idioma |
---|---|---|
dc.contributor.advisor | SAMPAIO, Augusto Cezar Alves | - |
dc.contributor.author | SILVA, Andresa Almeida da | - |
dc.date.accessioned | 2025-08-20T15:48:40Z | - |
dc.date.available | 2025-08-20T15:48:40Z | - |
dc.date.issued | 2025-04-11 | - |
dc.date.submitted | 2025-04-28 | - |
dc.identifier.citation | SILVA, Andresa Almeida da. Generating test-based domain models via large language models. 2025. Trabalho de Conclusão de Curso (Engenharia da Computação) – Universidade Federal de Pernambuco, Recife, 2025. | pt_BR |
dc.identifier.uri | https://repositorio.ufpe.br/handle/123456789/65239 | - |
dc.description.abstract | A inteligência artificial generativa, particularmente os Modelos de Linguagem de Grande Escala (LLMs), revolucionou várias etapas do ciclo de vida do software, como elicitação de requisitos, geração de código, especificação formal e criação de modelos. Na modelagem de software, os modelos de domínio são representações abstratas de conceitos, entidades e relações dentro de um domínio específico, servindo como guia para soluções e design de software. Considerada uma parte crítica do desenvolvimento de software, essa tarefa exige especialistas com conhecimento no domínio e recursos significativos de tempo, já que geralmente é uma tarefa manual que demanda considerável esforço. Este trabalho propõe uma abordagem sistemática para gerar modelos de domínio para a atividade de testes de software (modelos de domínio baseados em testes) a partir de casos de teste em linguagem natural usando o Gemini. Incorporamos um conjunto de regras com um solucionador ASP para garantir consistência estrutural e aplicamos o SBERT para validar os aspectos semânticos dos modelos gerados. Comparamos técnicas de engenharia de prompts e avaliamos o desempenho do Gemini na geração de modelos de domínio com e sem ciclos de interação de feedback, e sob a orientação de modelos de domínio de referência. Os resultados indicam que a eficácia do Gemini na produção de modelos de domínio consistentes é influenciada pela complexidade do domínio e pelo feedback, alcançando 80-90% de satisfatibilidade em domínios mais simples, com o feedback melhorando significativamente a qualidade do modelo. No entanto, a análise mostra que, independentemente da abordagem, a LLM ainda enfrenta limitações na inferência de associações, como dependência, instanciação e cancelamento. | pt_BR |
dc.format.extent | 50p. | pt_BR |
dc.language.iso | eng | pt_BR |
dc.rights | openAccess | pt_BR |
dc.rights.uri | https://creativecommons.org/licenses/by-nc-nd/4.0/ | pt_BR |
dc.subject | Domain Model | pt_BR |
dc.subject | LLM | pt_BR |
dc.subject | Software Testing | pt_BR |
dc.title | Generating test-based domain models via large language models | pt_BR |
dc.type | bachelorThesis | pt_BR |
dc.contributor.advisor-co | ARRUDA, Filipe | - |
dc.contributor.authorLattes | http://lattes.cnpq.br/5343221026322748 | pt_BR |
dc.degree.level | Graduacao | pt_BR |
dc.contributor.advisorLattes | http://lattes.cnpq.br/3977760354511853 | pt_BR |
dc.description.abstractx | The generative artificial intelligence, particularly Large Language Models, has revolutionized various stages of the software life cycle, such as requirements elicitation, code generation, formal specification, and model creation. In software modelling, domain models are abstract representations of concepts, entities, and relationships within a specific problem domain, serving as a guide for software solutions and design. Considered a critical aspect of software development, it requires specialists with domain expertise and significant time resources, as it is typically a manual task that demands considerable effort. This work proposes a systematic approach to generate domain models for the software testing activity (test-based domain models) from natural language test cases using Gemini. We incorporate a set of rules with an ASP solver to ensure structural consistency and apply SBERT to validate semantic aspects of the generated models. We compare prompt engineering techniques and evaluate Gemini’s performance in generating domain models with and without interaction cycles of feedback, and under the guidance of ground-truth domain models. The results indicate that Gemini’s effectiveness in producing consistent, test-based domain models, is influenced by domain complexity and feedback, achieving 80-90% satisfiability in simpler domains, with feedback significantly improving model quality. However, our analysis shows that regardless of the approach, the LLM still encounters limitations when inferring associations such as dependency, instantiation, and cancellation. | pt_BR |
dc.subject.cnpq | Áreas::Ciências Exatas e da Terra | pt_BR |
dc.degree.departament | ::(CIN-DCC) - Departamento de Ciência da Computação | pt_BR |
dc.degree.graduation | ::CIn-Curso de Engenharia da Computação | pt_BR |
dc.degree.grantor | Universidade Federal de Pernambuco | pt_BR |
dc.degree.local | Recife | pt_BR |
dc.contributor.advisor-coLattes | http://lattes.cnpq.br/4240670677976713 | pt_BR |
Aparece nas coleções: | (TCC) - Engenharia da Computação |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
TCC Andresa Almeida da Silva.pdf | 518,32 kB | Adobe PDF | ![]() Visualizar/Abrir |
Este arquivo é protegido por direitos autorais |
Este item está licenciada sob uma Licença Creative Commons