Capsule
神经网络和胶囊网络区别: 神经网络每个神经元输出的是一个标量,胶囊网络输出是一个向量。
一个神经元检测一种pattern,例如一个神经元检测往左的鸟嘴,一个神经元是检测往右的鸟嘴。
而胶囊是检测某一个种类的pattern。例如鸟嘴。
其中, W 1 , W 2 W^1, W^2 W1,W2是通过训练决定的,而 C 1 , C 2 C_1, C_2 C1,C2是通过动态路由算法得到的。可以拿max pooling做类比。
动态路由算法
通过内积来更新b,即 u i u^i ui与输出向量的内积越大,权重就越高。展开可以看到:
T是一个超参数。从这个结构来看,每一步的输出都是作为下一步的输入,与RNN很相似。
对于一个胶囊网络,具体形式也可以是CNN,将其max pooling和非线性变换用胶囊替代。
上图中,有两个任务,分别是分类和图像重构。
- 对于分类任务,每个胶囊的输出向量V, ∣ ∣ V 1 ∣ ∣ ||V^1|| ∣∣V1∣∣对应类别1的概率。n个类别做softmax之后就是归一化概率。
- 对于重构任务,利用胶囊的输出向量,输入到decoder网络,对图像进行重构。
实验结果
从结果可知使用CapsNet和重构任务效果取得最好。
同时,把MNIST的测试集做affine transformation。是的测试集和训练集分布不一致,在此测试集上,CapsNet效果下降到79%,而CNN下降到66%。
从结果上也说明,CapsNet更加鲁棒。
可视化
如何分析 v i v^i vi代表的特征,论文将 v i v^i vi通过重构网络,将其展示为可视化的形式,可以看出去有些v代表是笔画的粗细、旋转等。
MultiMNIST
重构能力。
训练集和测试集都是重叠的数字,将重叠的数字分离出来。
(并非训练集是非重叠,测试集是重叠。原谅我笑了,的确也说明CapsNet并非像很多文章介绍的那样神奇)
例如第一幅图,是2和7的重叠图案,而标签是2和7,然后2和7重构。
Discussion
Invariance VS Equivariance
Invariance: 不同的输入,保证输出不变,例如分类问题。
Equivariance:不同的输入,输出也不同。但是对于任务,知道该忽略哪一些不同,有点像attention思想。
例如,CNN中,经过max pooling之后,输出是一样的。
而CapsNet,通过向量的模表示概率(Invariance),方向表示不同,具有Equivariance。
在CapsNet中,其知道输入之间的差别,但是对于最终的概率
Dynamic Routing
attention + Multi-hop
类似于memory network, 见http://www.shuang0420.com/2017/12/04/%E8%AE%BA%E6%96%87%E7%AC%94%E8%AE%B0%20-%20Memory%20Networks/
实验:讲 c i c_i ci通过BP训练和动态路由训练作对比,证明其有效性。
Reference
https://www.youtube.com/watch?v=UhGWH3hb3Hk&t=0s