【胶囊网络-CapsNet】Investigating Capsule Networks with Dynamic Routing for Text Classification

Investigating Capsule Networks with Dynamic Routing for Text Classification

发表在EMNLP 2018

  1. CNN 在对空间信息进行建模时,需要对特征检测器进行复制,降低了模型的效率
  2. CNN 空间不敏感的方法不可避免地受限于丰富的文本结构(比如保存单词的位置信息、语义信息、语法结构等),难以有效地进行编码且缺乏文本表达能力

Capsule Network 由hinton提出,用神经元向量代替传统神经网络的单个神经元节点,以 Dynamic Routing 的方式去训练这种全新的神经网络,有效地改善了上述两类方法的缺点。

本文是capsNet在文本分类上的应用,并针对文本分类任务提出了三个策略减少背景或者噪音胶囊对网络的影响。

  1. Orphan Category:在胶囊网络的最后一层,引入 Orphan 类别,它可以捕捉一些背景知识,比如停用词。在视觉任务加入 Orphan 类别效果比较有限,因为图片的背景在训练和测试集里往往是多变的。然而,在文本任务,停用词比较一致,比如谓词和代词等。
  2. Leaky-Softmax:除了在最后一层引入 Orphan 类别,中间的连续卷积层也需要引入去噪机制。对比 Orphan 类别,Leaky-Softmax 是一种轻量的去噪方法,它不需要额外的参数和计算量。
  3. 路由参数修正:传统的路由参数,通常用均与分布进行初始化,忽略了下层胶囊的概率。相反,我们把下层胶囊的概率当成路由参数的先验,改进路由过程。

在 6 个 benchmarks 上进行了实验,Capsule Network 在其中 4 个中取得了最好结果。

同事,在多标签迁移的任务上(fromsingle-label to multi-label text classification),Capsule Network 的性能远远地超过了 CNN 和 LSTM

Model

模型包含四层,

  1. N-gram convolutional layer
  2. primary capsule layer
  3. convolutional capsule layer
  4. fully connected capsule layer

N-gram convolutional layer

这是标准的卷积层,对于每一个卷积,窗口大小 K 1 × v K_1\times v K1×v
m i a = f ( x i : i + K 1 − 1 ∘ W a + b 0 ) m^a_i = f(x_{i:i+K_1-1} \circ W^a + b_0) mia=f(xi:i+K11Wa+b0)
其中, x ∈ R L ∗ V , x i ∈ R V , W a ∈ R K 1 ∗ v , m a ∈ R L − K 1 + 1 x \in R^{L*V}, x_i \in R^V, W^a \in R^{K_1*v}, m^a \in R^{L-K_1+1} xRLV,xiRV,WaRK1v,maRLK1+1,V是词向量维度。

卷积核通道数为B,卷积层输出:
M = [ m 1 , m 2 , . . . m B ] ∈ R ( L − K 1 + 1 ) × B M = [m_1, m_2,... m_B] \in R^{(L-K_1+1) \times B} M=[m1,m2,...mB]R(LK1+1)×B

primary capsule layer

第一层胶囊网络。
p i = g ( W b M i + b 1 ) g ( s j ) = ∣ ∣ s j ∣ ∣ 2 1 + ∣ ∣ s ∣ ∣ 2 s j ∣ ∣ s j ∣ ∣ p_i = g(W^bM_i + b_1) \\ g(s_j) = \frac{||s_j||^2}{1+||s||^2} \frac{s_j}{||s_j||} pi=g(WbMi+b1)g(sj)=1+s2sj2sjsj
其中: W b ∈ R B × d , M i ∈ R B , i ∈ ( 1 , L − K 1 + 1 ) W^b \in R^{B \times d}, M_i \in R^{B}, i \in (1, L-K_1+1) WbRB×d,MiRB,i(1,LK1+1),g是squash函数。

通道数设置为C,即:
P = [ p 1 , p 2 , . . . P C ] ∈ R ( L − K 1 + 1 ) × C × d P = [p_1, p_2, ...P_C] \in R^{(L-K_1+1) \times C \times d} P=[p1,p2,...PC]R(LK1+1)×C×d
最终输出为 ( L − K 1 + 1 ) × C (L-K_1+1) \times C (LK1+1)×C个维度为d的胶囊。

Child-Parent Relationships

在胶囊网络层之间就会存在Child-Parent关系,本文尝试了两种transformation。

  • 共享权重,对于每一个parent胶囊,共享权重 W j t 1 W^{t_1}_j Wjt1
    • u ^ = W j t 1 u i + b j ∣ i \hat{u} = W_j^{t_1} u_i + b_{j|i} u^=Wjt1ui+bji,其中 u i u_i ui是每个child-capsule。
    • 参数量: N ∗ d ∗ d N*d*d Ndd
  • 非共享权重,对于每一个parent胶囊j,child胶囊i,有
    • u ^ = W j ∣ i t 1 u i + b j ∣ i \hat{u} = W_{j|i}^{t_1} u_i + b_{j|i} u^=Wjit1ui+bji
    • 参数量: H ∗ N ∗ d ∗ d H*N*d*d HNdd,parent胶囊N个,child胶囊H个。

Dynamic Routing

通过动态路由算法学习获得child胶囊对parent胶囊的权重,动态的加强或减弱权重,优于会丢失位置信息的max pooling算法。同事本文针对文本分类任务提出了三个策略优化CapsNet:

  1. Orphan Category:在胶囊网络的最后一层,引入 Orphan 类别,它可以捕捉一些背景知识,比如停用词。在视觉任务加入 Orphan 类别效果比较有限,因为图片的背景在训练和测试集里往往是多变的。然而,在文本任务,停用词比较一致,比如谓词和代词等。

  2. Leaky-Softmax:除了在最后一层引入 Orphan 类别,中间的连续卷积层也需要引入去噪机制。对比 Orphan 类别,Leaky-Softmax 是一种轻量的去噪方法,它不需要额外的参数和计算量。

  3. 路由参数修正:传统的路由参数,通常用均与分布进行初始化,忽略了下层胶囊的概率。相反,我们把下层胶囊的概率当成路由参数的先验,改进路由过程。

在这里插入图片描述

原始Dynamic Routing:

在这里插入图片描述

convolutional capsule layer

fully connected capsule layer

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

百川AI

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值