end2end和pipeline结合,增加输入

这篇博客探讨了如何将预训练的语言模型与seq2seq解码器融合,以解决跨领域问题。作者提到了Zero-Shot Naive Fusion和Multitask Fusion的方法,并指出这些方法如何改进对话生成。Structured Fusion Networks通过增加输入约束来提高生成效果。
摘要由CSDN通过智能技术生成

Structured Fusion Networks for Dialog
似乎跨领域确实是个问题
overwhelming implicit language model
Using reinforcement learning to fine-tune a decoder, will likely place a strong emphasis on improving the decoder’s policy and un-learn the im- plicit language model of the decoder.就是decoder的生成能力变差。查看rethinking的原文解释。
fusion:pretrained language model与(seq2seq的)decoder融合

1.Zero-Shot Naive Fusion

不明白为什么加上zero-shot,没什么新意,就是说可以backprop,
Since the forward propagation described in Equa- tions 5 and 6 is continuous and there is no sampling procedure until the response is generated。
2.multitask fusion

the individual neural modules are learned simulta- neously with the end-to-end task of dialog genera- tion.应该是loss 相加。encoder能学到怎么生成belief state,还能学到DM过程中需要提供的知识。
3. Structured Fusion Networks
在这里插入图片描述
就是增加输入的约束,没什么厉害的

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值