相信大家最近被hinton的这篇capsule的论文刷屏了,这篇论文是发表在nips2017上的。
其实capsule这个概念最早是hinton的一篇发表在ICANN 2011上的论文中提出的,不过当初没有引起太大的关注。今年的早些时候,hinton也在多个公开场合表达capsule这样一种想法。
在此,笔者在这里记录下自己对这篇论文的理解。
首先在这里推荐几篇与这篇论文相关的,笔者认为比较有用的资源,可以帮助大家更加深入的理解此文。
1.Understanding Hinton’s Capsule Networks
2.Capsule Networks Explained
3.TensorFlow Pytorch Keras代码实现深度学习大神Hinton NIPS2017 Capsule论文
4.《What is wrong with convolutional neural nets?》by Geoffrey Hinton
一.Motivation
这里主要是总结一下motivation,如果想要更清楚的了解背后的原理,强烈推荐看一下这篇博客Understanding Hinton’s Capsule Networks。
此外这篇博客讲的也不错Capsule Networks Explained。最好都看一下。
1.传统的CNN很难发现特征之间的orientational 和 relative spatial 关系
2.max pool 必然会损失一些有用的信息,需要用其他方法代替
这些motivation,多多少少都可以从hinton的公开演讲中得出,反而论文中提及的并不是很多。
二.Contribution
1.将原来神经网络中的每个神经元的标量替换成向量,称作capsule
1) 每个capsule(向量)的模长 代表对应特征出现的概率
2) capsule的方向,即里面具体的值代表对应特征的一些实例化参数,such as pose (position, size, orientation), deformation, velocity, albedo, hue, texture举个例子,下图的两张猫,可以分别用两个capsule(向量)表示,记为 c1,c2 ,因为表示的都是猫这一特征,所以