Skip navigation
Por favor, use este identificador para citar o enlazar este ítem: https://repositorio.ufpe.br/handle/123456789/52891

Comparte esta pagina

Título : Refinamentos de modelos de linguagem de código aberto para a geração de respostas às avaliações negativas de clientes sobre restaurantes
Autor : ALBUQUERQUE, Matheus Viana Coelho
Palabras clave : Processamento de linguagem natural; Modelo de linguagem; Geração de texto; Ajuste fino supervisionado; Resposta a avaliação de cliente
Fecha de publicación : 11-ago-2023
Citación : ALBUQUERQUE, Matheus Viana Coelho. Refinamentos de modelos de linguagem de código aberto para a geração de respostas às avaliações negativas de clientes sobre restaurantes. 2023. 45 f. TCC (Graduação) - Curso de Engenharia da Computação, Centro de Informática, Universidade Federal de Pernambuco, Recife, 2023.
Resumen : Avaliações online de restaurantes desempenham um papel crucial na formação da decisão de um cliente em fazer um pedido, conforme indicado por estudos anteriores. Consequentemente, avaliações negativas podem levar a uma queda nas vendas. No entanto, a influência adversa de tais avaliações pode ser atenuada por meio de respostas adequadas. Este trabalho propõe o ajuste fino de Modelos de Linguagem de Grande Escala de código aberto pré-treinados para elaborar respostas a avaliações negativas de clientes sobre restaurantes. O objetivo é garantir que as respostas sejam respeitosas, específicas e assegurem de forma convincente ao cliente que medidas corretivas serão tomadas para abordar suas preocupações, incentivando-os a considerar fazer um pedido no restaurante novamente. Dado que esses modelos já passaram por um pré-treinamento em extensos conjuntos de dados não supervisionados, a quantidade de dados necessária para o ajuste fino é significativamente menor se comparada à utilizada na fase inicial de treinamento. Para este estudo, foram selecionadas as versões menores dos Modelos de Linguagem de Grande Escala escolhidos, que possuem 7B de parâmetros. O resultado obtido sugere que o desempenho desses modelos para a tarefa específica, após o ajuste fino, é equivalente aos modelos de linguagem gigantescos, como o ChatGPT-3.5, que possui aproximadamente 175B de parâmetros - quase 25 vezes maior em tamanho.
URI : https://repositorio.ufpe.br/handle/123456789/52891
Aparece en las colecciones: (TCC) - Engenharia da Computação

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
TCC Matheus Viana Coelho Albuquerque.pdf811,42 kBAdobe PDFVista previa
Visualizar/Abrir


Este ítem está protegido por copyright original



Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons