论文笔记:Towards Linear Time Neural Machine Translation with Capsule Networks

Motivation

1.传统的Enc-Dec模型,没有保留source sequence resolution(一种加深对长句子学习的特征)。
2.带注意力的Enc-Dec模型,保留了源句的resolution,不需要把所有信息压缩 到一个固定的表示,但计算复杂度由 ∣ S ∣ + ∣ T ∣ |S|+|T| S+T到了 ∣ S ∣ × ∣ T ∣ |S|\times|T| S×T,当句子长度上涨,模型复杂度会上升的更明显。

Method

在这里插入图片描述
论文中有好几点与翁荣祥师兄的论文很相似:
1.都用到双向的LSTM模型,翁是将修正后的词传入模型,进行前向和后向词的再生成,此篇论文在每一个位置利用双向LSTM得到前后的上下文信息。
2.都利用胶囊网络和动态路由算法对句子的整体信息进行聚合,得到句子的整体表示,翁是单层胶囊网络,但提出注意力池化,能够区分每个胶囊起到的不同的作用;此篇论文设计了一个父子的网络,设计了一个路由算法决定要从子单元中得到的信息,其中加了几个方法:(1)在路由中考虑了位置信息;(2)不共享权重变量;(3)将scoring分离出来。

实验中发现父子胶囊网络中的神经元能够得到结构化的信息,待解释。
在这里插入图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值