【胶囊网络-CapsNet】李宏毅CapsNet课程笔记

Capsule

神经网络和胶囊网络区别: 神经网络每个神经元输出的是一个标量,胶囊网络输出是一个向量。

在这里插入图片描述

一个神经元检测一种pattern,例如一个神经元检测往左的鸟嘴,一个神经元是检测往右的鸟嘴。
而胶囊是检测某一个种类的pattern。例如鸟嘴。

在这里插入图片描述

其中, W 1 , W 2 W^1, W^2 W1,W2是通过训练决定的,而 C 1 , C 2 C_1, C_2 C1,C2是通过动态路由算法得到的。可以拿max pooling做类比。

动态路由算法

在这里插入图片描述

通过内积来更新b,即 u i u^i ui与输出向量的内积越大,权重就越高。展开可以看到:

在这里插入图片描述

T是一个超参数。从这个结构来看,每一步的输出都是作为下一步的输入,与RNN很相似。

在这里插入图片描述

对于一个胶囊网络,具体形式也可以是CNN,将其max pooling和非线性变换用胶囊替代。
上图中,有两个任务,分别是分类和图像重构。

  • 对于分类任务,每个胶囊的输出向量V, ∣ ∣ V 1 ∣ ∣ ||V^1|| V1对应类别1的概率。n个类别做softmax之后就是归一化概率。
  • 对于重构任务,利用胶囊的输出向量,输入到decoder网络,对图像进行重构。

实验结果

在这里插入图片描述

从结果可知使用CapsNet和重构任务效果取得最好。
同时,把MNIST的测试集做affine transformation。是的测试集和训练集分布不一致,在此测试集上,CapsNet效果下降到79%,而CNN下降到66%。

从结果上也说明,CapsNet更加鲁棒

可视化

在这里插入图片描述

如何分析 v i v^i vi代表的特征,论文将 v i v^i vi通过重构网络,将其展示为可视化的形式,可以看出去有些v代表是笔画的粗细、旋转等。

MultiMNIST

重构能力。
在这里插入图片描述

训练集和测试集都是重叠的数字,将重叠的数字分离出来。
(并非训练集是非重叠,测试集是重叠。原谅我笑了,的确也说明CapsNet并非像很多文章介绍的那样神奇)
例如第一幅图,是2和7的重叠图案,而标签是2和7,然后2和7重构。

Discussion

Invariance VS Equivariance

在这里插入图片描述

Invariance: 不同的输入,保证输出不变,例如分类问题。

Equivariance:不同的输入,输出也不同。但是对于任务,知道该忽略哪一些不同,有点像attention思想。

在这里插入图片描述

例如,CNN中,经过max pooling之后,输出是一样的。

而CapsNet,通过向量的模表示概率(Invariance),方向表示不同,具有Equivariance。

在CapsNet中,其知道输入之间的差别,但是对于最终的概率

Dynamic Routing

在这里插入图片描述

attention + Multi-hop

类似于memory network, 见http://www.shuang0420.com/2017/12/04/%E8%AE%BA%E6%96%87%E7%AC%94%E8%AE%B0%20-%20Memory%20Networks/

实验:讲 c i c_i ci通过BP训练和动态路由训练作对比,证明其有效性。

在这里插入图片描述

Reference

https://www.youtube.com/watch?v=UhGWH3hb3Hk&t=0s

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

百川AI

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值