Use este identificador para citar ou linkar para este item:
https://repositorio.ufpe.br/handle/123456789/64063
Compartilhe esta página
Registro completo de metadados
Campo DC | Valor | Idioma |
---|---|---|
dc.contributor.advisor | BARBOSA, Luciano de Andrade | - |
dc.contributor.author | SILVA, Fillipe de Menezes Cardoso da | - |
dc.date.accessioned | 2025-07-03T12:29:06Z | - |
dc.date.available | 2025-07-03T12:29:06Z | - |
dc.date.issued | 2024-04-29 | - |
dc.identifier.citation | SILVA, Fillipe de Menezes Cardoso da. Leveraring multilingual models and rank fusion for translation memory retrieval. Dissertação (Mestrado em Ciência da Computação) - Universidade Federal de Pernambuco, Recife, 2024. | pt_BR |
dc.identifier.uri | https://repositorio.ufpe.br/handle/123456789/64063 | - |
dc.description.abstract | Translation memories (TMs) are crucial components of modern Computer-Assisted Translation (CAT) tools. TMs store translated texts from a source language to a target language, serving as a repository of previously translated segments that are essential for productivity and cost reduction in the translation process. However, current TM databases rely mostly on lexical rules, such as edit distance or n-gram matches, which limit their ability to identify semantically similar translations. Recently, researchers have been exploring the use of neural models for retrieval tasks, but with a limited scope that fails to fully leverage the multilingual nature of Translation Memories (TMs) and available neural models and tools. In this study, we explore the application of state-of-the-art neural models for the Translation Memory Retrieval problem and present our Robust Translation Memory Retrieval (RTMR) pipeline, which combines neural models and information retrieval techniques to achieve state-of-the-art results. Furthermore, we conduct experiments using a wide range of TMs and different languages as source and target, expanding the scope of previous studies that have often been limited to a single TM and language direction. Through extensive experimentation, we demonstrate that neural models not only yield superior candidate translations but also offer greater flexibility and wider applicability compared to conventional lexical approaches. Furthermore, we show that the integration of rank fusion techniques and multilingual neural models results in state-of-the-art performance for Translation Memory Retrieval. Our findings highlight the potential of neural models to significantly enhance the effectiveness of Translation Memory systems. | pt_BR |
dc.language.iso | eng | pt_BR |
dc.publisher | Universidade Federal de Pernambuco | pt_BR |
dc.rights | openAccess | pt_BR |
dc.rights.uri | https://creativecommons.org/licenses/by-nc-nd/4.0/ | pt_BR |
dc.subject | Memória de tradução | pt_BR |
dc.subject | Neural information retrieval | pt_BR |
dc.subject | Rank fusion | pt_BR |
dc.subject | Ranking | pt_BR |
dc.subject | Aprendizado profundo | pt_BR |
dc.title | Leveraring multilingual models and rank fusion for translation memory retrieval | pt_BR |
dc.type | masterThesis | pt_BR |
dc.contributor.authorLattes | http://lattes.cnpq.br/2344291877283886 | pt_BR |
dc.publisher.initials | UFPE | pt_BR |
dc.publisher.country | Brasil | pt_BR |
dc.degree.level | mestrado | pt_BR |
dc.contributor.advisorLattes | http://lattes.cnpq.br/7113249247656195 | pt_BR |
dc.publisher.program | Programa de Pos Graduacao em Ciencia da Computacao | pt_BR |
dc.description.abstractx | As memórias de tradução (TMs) são componentes cruciais das ferramentas modernas de Tradução Assistida por Computador (CAT). As TMs armazenam textos traduzidos de uma língua de origem para uma língua de destino, servindo como um repositório de segmentos previamente traduzidos que são essenciais para a produtividade e redução de custos no processo de tradução. No entanto, as bases de dados de TMs atuais dependem principalmente de regras lexicais, como distância de edição ou correspondências de n-gramas, o que limita sua capacidade de identificar traduções semanticamente semelhantes. Recentemente, os pesquisadores têm explorado o uso de modelos neurais para tarefas de recuperação em TM, porém com um escopo limitado que não aproveita totalmente a natureza multilíngue das TMs e dos modelos e ferramentas neurais disponíveis. Neste trabalho, exploramos a aplicação de modelos neurais de ponta para o problema de Recuperação de Memória de Tradução e apresentamos nossa pipeline Robust Translation Memory Retrieval (RTMR), que combina modelos neurais e técnicas de recuperação de informações para alcançar resultados de ponta. Além, realizamos amplos experimentos usando uma variedade de TMs e diferentes idiomas de origem e destino, expandindo o escopo de estudos anteriores. Demonstramos que os modelos neurais não apenas produzem traduções candidatas superiores, mas também oferecem maior flexibilidade e aplicação mais ampla em comparação com abordagens lexicais convencionais. Além disso, mostramos que a integração de técnicas de Rank Fusion (RF) e modelos neurais multilíngues resulta em desempenho de ponta para Recuperação de Memória de Tradução. Nossas descobertas destacam o potencial dos modelos neurais para aumentar significativamente a eficácia dos sistemas de Memória de Tradução. | pt_BR |
Aparece nas coleções: | Dissertações de Mestrado - Ciência da Computação |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
DISSERTAÇÃO Fillipe de Menezes Cardoso da Silva.PDF | 1,98 MB | Adobe PDF | ![]() Visualizar/Abrir |
Este arquivo é protegido por direitos autorais |
Este item está licenciada sob uma Licença Creative Commons