本文是LLM系列文章,针对《Rethinking Human-like Translation Strategy: Integrating Drift-Diffusion Model with Large Language Models for Machine Translation》的翻译。
摘要
大型语言模型(LLM)在包括机器翻译在内的各种下游任务中显示出了巨大的潜力。然而,先前关于基于LLM的机器翻译的工作主要集中在更好地利用训练数据、演示或预定义的通用知识来提高性能,而缺乏像人类翻译那样考虑决策。在本文中,我们将Thinker与漂移扩散模型(Thinker DDM)相结合来解决这个问题。然后,我们重新定义了漂移扩散过程,以模仿人类译者在资源受限的情况下的动态决策。我们使用WMT22和CommonMT数据集,在高资源、低资源和常识翻译设置下进行了广泛的实验,其中Thinker DDM在前两种情况下都优于基线。我们还对常识翻译进行了额外的分析和评估,以说明所提出的方法的高效性和有效性。