【NLP】句法信息在机器翻译(machine Translation)的应用

本文介绍了句法信息如何在机器翻译任务中提升模型效果,主要分为Encoder侧和Decoder侧的句法增强方法。Encoder侧通过修改模型结构如ON_LSTM和Tree Transformer来编码源句法。Decoder侧则通过多任务学习或结合句法结构如Sequence-to-Dependency NMT和Tree-based Decoder,使输出更符合句法约束。这些研究旨在使机器翻译更准确地捕捉和生成句法结构。
摘要由CSDN通过智能技术生成

        1. 最近有很多的工作都是在NMT任务中,让其考虑句法信息(源句法或者是目标句法)来提升模型的效果。所以接下来我就是稍微对这方面进行一些介绍(可能不是很全哦~可能理解比较片面)

        2. 我们可以将其简单分为两类:Encoder侧加入句法,Decoder侧加入句法。

        3. Encoder侧加入句法:主要是通过修改模型架构,使模型能够编码源句子的句法信息,使其获得的representation更加准确。例如ON_LSTM, Tree Transformer。

        4. Decoder侧加入句法:方法又可分为两类,一类是句法作为额外任务进行输出(多任务),使整个模型具有获取句法的能力。另一类则是考虑将各种句法结构融入到Decoder中,使输出的句子更加符合句法约束。这里详细介绍一下第二类方法。感觉目前的文章就是在考虑有哪些句法结构可以表示句法,然后考虑将这个结构怎么与decoder结合起来。例如Sequence-to-Dependency Neural Machine Translation 利用基于转移的依存句法结构,所以其用额外的RNN预测动作序列(因为动作序列确定,所对应的依存结构就可确定)。

      

Top-down Tree Structured Decoding w
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值