Por favor, use este identificador para citar o enlazar este ítem:
https://repositorio.ufpe.br/handle/123456789/57488
Comparte esta pagina
Registro completo de metadatos
Campo DC | Valor | Lengua/Idioma |
---|---|---|
dc.contributor.advisor | BARBOSA, Luciano de Andrade | - |
dc.contributor.author | FERREIRA, Anna Luiza Caraciolo Albuquerque | - |
dc.date.accessioned | 2024-08-22T12:27:39Z | - |
dc.date.available | 2024-08-22T12:27:39Z | - |
dc.date.issued | 2024-08-02 | - |
dc.date.submitted | 2024-08-08 | - |
dc.identifier.citation | FERREIRA, Anna Luiza Caraciolo Albuquerque. Fine-tuning de LLMs para geração de código Mojo. 2024. Trabalho de Conclusão de Curso (Ciência da Computação) - Universidade Federal de Pernambuco, Recife, 2024. | pt_BR |
dc.identifier.uri | https://repositorio.ufpe.br/handle/123456789/57488 | - |
dc.description.abstract | Esta pesquisa demonstra os processos de fine-tuning e de prompt engineering de modelos de aprendizagem de grande escala (LLMs) para geração de código na linguagem Mojo, desenvolvida pela Modular e lançada em versão inicial em 2023. Serão apresentadas as etapas de coleta e pré-processamento de dados, treinamento dos modelos e suas avaliações e apresentação dos dados gerados a partir dos modelos refinados e de um agente de chat comercial baseado em um modelo de linguagem de larga escala utilizando a estratégia de few-shot learning. | pt_BR |
dc.format.extent | 33p. | pt_BR |
dc.language.iso | por | pt_BR |
dc.rights | openAccess | pt_BR |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/br/ | * |
dc.subject | Geração de código | pt_BR |
dc.subject | IA gerativa | pt_BR |
dc.subject | Code Llama | pt_BR |
dc.subject | Llama 2 | pt_BR |
dc.subject | Fine-tuning | pt_BR |
dc.title | Fine-tuning de LLMs para geração de código Mojo | pt_BR |
dc.type | bachelorThesis | pt_BR |
dc.degree.level | Graduacao | pt_BR |
dc.contributor.advisorLattes | http://lattes.cnpq.br/7113249247656195 | pt_BR |
dc.description.abstractx | This research demonstrates the processes of fine-tuning and prompt engineering large language models (LLMs) for code generation in the language Mojo, developed by Modular and announced with a first version in 2023. It will be presented the steps of data collection and pre processing, fine-tuning of the chosen models and their evaluation and present the results generated by the fine-tuned models and by a commercial chat agent based on a large language model using the few-shot learning approach. | pt_BR |
dc.subject.cnpq | Áreas::Ciências Exatas e da Terra::Ciência da Computação | pt_BR |
dc.degree.departament | ::(CIN-DCC) - Departamento de Ciência da Computação | pt_BR |
dc.degree.graduation | ::CIn-Curso de Ciência da Computação | pt_BR |
dc.degree.grantor | Universidade Federal de Pernambuco | pt_BR |
dc.degree.local | Recife | pt_BR |
Aparece en las colecciones: | (TCC) - Ciência da Computação |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
TCC Anna Luiza Caraciolo Albuquerque Ferreira.pdf | 476,27 kB | Adobe PDF | ![]() Visualizar/Abrir |
Este ítem está protegido por copyright original |
Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons