EFFICIENT-CAPSNET:
CAPSULE NETWORK WITHSELF-ATTENTION ROUTING
作者:Vittorio Mazzia, Francesco Salvetti, Marcello Chiaberge
一、Background
- 度卷积神经网络是依靠大量的数据和具有大量特征映射的层来完成学习和更新的,这个过程并不是非常高效,对于大型数据集来说,这意味着有大量冗余的特征检测器。
- 针对这一问题,胶囊网络是一个有发展潜力的解决方案——它可以扩展当前的卷积网络,并可以令人工视觉感知到高效编码所有特征仿射变换的过程。
- 由于内在具有更好的概括能力,一个胶囊网络理论上可以使用相当少的参数数量,并获得更好的结果。
二、Motivation
- 然而,很少有人关注胶囊网络的效率问题以及表示知识转换的内在能力。事实上,目前提出的所有模型解决方案都需要大量的参数,这些参数不可避免地隐藏了胶囊应该提供的内在泛化能力。
- 注意机制允许动态地更加重视那些被认为与所分析的问题更相关的特定特征。这种想法在许多深度学习应用程序中获得了广泛的应用。
- 研究者用一个新颖的非迭代的路由算法替代了动态路由,利用自我注意机制,这种新颖的算法可以很容易地对小数量的胶囊进行处理。