Seq2Seq2、Attention的多种模式

#2020.8.19
苏神博客的基础seq2seq架构
在这里插入图片描述
玩转Keras之Seq2Seq自动生成标题 | 附开源代码

关于seq2seq的多种模式
模式一:
Encoder端、Decoder端都采用RNN。在编码的每个时刻,RNN除了上一时刻产生的隐层状态编码时,还有当前时刻的输入字符;而在解码阶段没有这种输入。最简单的一种方式是:把编码端得到的隐层向量作为解码端的每一时刻的输入向量。
在这里插入图片描述
模式二:带回馈的解码模式:
在解码阶段,每一时刻依赖于上一时刻的输出与隐层向量
在这里插入图片描述
模式三:
带编码向量的解码模式
在这里插入图片描述
模式四:带注意力机制的解码模式:
在这里插入图片描述
下图是模式四模型实现的详细图解:
注:
两个黄色的输入使用的是相同的embedding data。
在这里插入图片描述
参考:大神博客

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值