We introduce a design strategy for neural network macro-architecture based on self-similarity. Repeated application of a simple expansion rule generates deep networks whose structural layouts are precisely truncated fractals.
思想
对于网络结构比较深的卷积模型训练起来非常困难,而残差网络的出现,给深度卷积网络带来了非常大的便利。但作者认为残差不是建立深度网络唯一的基础和方法。深度卷积网络中真正的关键所在训练过程中网络关于信息的传递能力。作者采用了一种类似student-teacher的学习机制,结合drop-path也能够使得深度卷积模型训练的非常好。
模型结构
论文主要有两方面贡献:
- 介绍了一种FractalNet。可以代替ResNet,构建非常深的网络结构。说明residual不是极深网络所必需的
- 同时实验分析,作者解释了FractalNet和一系列被加入到之前网络现象之间的联系。
定义:令 C 为truncated fractal函数