Skip navigation
Por favor, use este identificador para citar o enlazar este ítem: https://repositorio.ufpe.br/handle/123456789/33906

Comparte esta pagina

Título : AVS: uma ferramenta para mitigação de duplicação de relatórios de erros em empresas de desenvolvimento mobile
Autor : SANTOS, Ivan Valentim
Palabras clave : Inteligência artificial; Recuperação da informação; Mineração de texto
Fecha de publicación : 20-feb-2019
Editorial : Universidade Federal de Pernambuco
Resumen : A adoção de sistemas de gerenciamento de relatórios de erros é algo fundamental em empresas de software durante o processo de produção/teste. Os tipos de informação e a grande quantidade de dados armazenados nesses sistemas levam a desafios que dificultam na produtividade dos processos relacionados à eficiência do rastreamento dos dados, como, por exemplo, a presença de relatórios de erros duplicados. Estudos demonstram que a quantidade de relatórios de erros duplicados pode afetar diretamente na produtividade de uma empresa. Idealmente, um relatório de erro duplicado deve ser identificado antes de ser criado por testadores. Em alguns casos, os gerenciadores de relatórios de erros são apontados como responsáveis por parte desse problema, devido às limitações existentes em seus sistemas de busca. Esta dissertação tem como propósito investigar abordagens e técnicas que possam contribuir para mitigação dos altos índices de relatórios de erros duplicados. Para tal, desenvolvemos a AVS (Automatic Versatile Search tool), uma ferramenta de buscas que contribui para a identificação de relatórios de erros com base em técnicas de Recuperação de Informações e Mineração de Texto, visando dar suporte aos GRE (Gerenciadores de Relatórios de erros) para diminuir a ocorrência de relatórios duplicados. Como prova de conceito, implementamos a AVS no contexto do Centro de Teste da Motorola (CTM) no Centro de Informática da UFPE. Toda pesquisa por um relatório de erro candidato a ser aberto é preprocessada. Então, a semelhança entre a busca (i.e., representada por um resumo de um erro candidato a ser um novo relatório) e os relatórios disponíveis no banco de dados é calculada, gerando uma lista de relatórios anteriores ranqueada por similaridade. No final, os relatórios de erros são divididos em grupos, onde seus dados são relacionados de acordo com as semelhanças entre suas sentenças ou palavras chaves, visando produzir um processo mais avançado de identificação de potenciais duplicações. Após um estudo de caso realizado, foi constatada a utilidade da ferramenta principalmente com relação a ganhos de precisão e agilidade do processo de buscas, o que consequentemente, colaborou para melhoraria na produtividade do processo.
URI : https://repositorio.ufpe.br/handle/123456789/33906
Aparece en las colecciones: Dissertações de Mestrado - Ciência da Computação

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
DISSERTAÇÂO Ivan Valentim Santos.pdf5,32 MBAdobe PDFVista previa
Visualizar/Abrir


Este ítem está protegido por copyright original



Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons