Skip navigation
Use este identificador para citar ou linkar para este item: https://repositorio.ufpe.br/handle/123456789/64063

Compartilhe esta página

Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisorBARBOSA, Luciano de Andrade-
dc.contributor.authorSILVA, Fillipe de Menezes Cardoso da-
dc.date.accessioned2025-07-03T12:29:06Z-
dc.date.available2025-07-03T12:29:06Z-
dc.date.issued2024-04-29-
dc.identifier.citationSILVA, Fillipe de Menezes Cardoso da. Leveraring multilingual models and rank fusion for translation memory retrieval. Dissertação (Mestrado em Ciência da Computação) - Universidade Federal de Pernambuco, Recife, 2024.pt_BR
dc.identifier.urihttps://repositorio.ufpe.br/handle/123456789/64063-
dc.description.abstractTranslation memories (TMs) are crucial components of modern Computer-Assisted Translation (CAT) tools. TMs store translated texts from a source language to a target language, serving as a repository of previously translated segments that are essential for productivity and cost reduction in the translation process. However, current TM databases rely mostly on lexical rules, such as edit distance or n-gram matches, which limit their ability to identify semantically similar translations. Recently, researchers have been exploring the use of neural models for retrieval tasks, but with a limited scope that fails to fully leverage the multilingual nature of Translation Memories (TMs) and available neural models and tools. In this study, we explore the application of state-of-the-art neural models for the Translation Memory Retrieval problem and present our Robust Translation Memory Retrieval (RTMR) pipeline, which combines neural models and information retrieval techniques to achieve state-of-the-art results. Furthermore, we conduct experiments using a wide range of TMs and different languages as source and target, expanding the scope of previous studies that have often been limited to a single TM and language direction. Through extensive experimentation, we demonstrate that neural models not only yield superior candidate translations but also offer greater flexibility and wider applicability compared to conventional lexical approaches. Furthermore, we show that the integration of rank fusion techniques and multilingual neural models results in state-of-the-art performance for Translation Memory Retrieval. Our findings highlight the potential of neural models to significantly enhance the effectiveness of Translation Memory systems.pt_BR
dc.language.isoengpt_BR
dc.publisherUniversidade Federal de Pernambucopt_BR
dc.rightsopenAccesspt_BR
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/pt_BR
dc.subjectMemória de traduçãopt_BR
dc.subjectNeural information retrievalpt_BR
dc.subjectRank fusionpt_BR
dc.subjectRankingpt_BR
dc.subjectAprendizado profundopt_BR
dc.titleLeveraring multilingual models and rank fusion for translation memory retrievalpt_BR
dc.typemasterThesispt_BR
dc.contributor.authorLatteshttp://lattes.cnpq.br/2344291877283886pt_BR
dc.publisher.initialsUFPEpt_BR
dc.publisher.countryBrasilpt_BR
dc.degree.levelmestradopt_BR
dc.contributor.advisorLatteshttp://lattes.cnpq.br/7113249247656195pt_BR
dc.publisher.programPrograma de Pos Graduacao em Ciencia da Computacaopt_BR
dc.description.abstractxAs memórias de tradução (TMs) são componentes cruciais das ferramentas modernas de Tradução Assistida por Computador (CAT). As TMs armazenam textos traduzidos de uma língua de origem para uma língua de destino, servindo como um repositório de segmentos previamente traduzidos que são essenciais para a produtividade e redução de custos no processo de tradução. No entanto, as bases de dados de TMs atuais dependem principalmente de regras lexicais, como distância de edição ou correspondências de n-gramas, o que limita sua capacidade de identificar traduções semanticamente semelhantes. Recentemente, os pesquisadores têm explorado o uso de modelos neurais para tarefas de recuperação em TM, porém com um escopo limitado que não aproveita totalmente a natureza multilíngue das TMs e dos modelos e ferramentas neurais disponíveis. Neste trabalho, exploramos a aplicação de modelos neurais de ponta para o problema de Recuperação de Memória de Tradução e apresentamos nossa pipeline Robust Translation Memory Retrieval (RTMR), que combina modelos neurais e técnicas de recuperação de informações para alcançar resultados de ponta. Além, realizamos amplos experimentos usando uma variedade de TMs e diferentes idiomas de origem e destino, expandindo o escopo de estudos anteriores. Demonstramos que os modelos neurais não apenas produzem traduções candidatas superiores, mas também oferecem maior flexibilidade e aplicação mais ampla em comparação com abordagens lexicais convencionais. Além disso, mostramos que a integração de técnicas de Rank Fusion (RF) e modelos neurais multilíngues resulta em desempenho de ponta para Recuperação de Memória de Tradução. Nossas descobertas destacam o potencial dos modelos neurais para aumentar significativamente a eficácia dos sistemas de Memória de Tradução.pt_BR
Aparece nas coleções:Dissertações de Mestrado - Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
DISSERTAÇÃO Fillipe de Menezes Cardoso da Silva.PDF1,98 MBAdobe PDFThumbnail
Visualizar/Abrir


Este arquivo é protegido por direitos autorais



Este item está licenciada sob uma Licença Creative Commons Creative Commons