论文名: Wide Residual Networks
code: https://github.com/szagoruyko/wide-residual-networks
引言: 随着研究的深入,如今的神经网络发展趋向于更深,更瘦,作者提出一个疑问,神经网络是否越瘦越深则结果越好? 还是说只要能保证参数的数量,训练一个更胖更浅的网络 是否可行?
网络结构:
其中,a和b都是何开明的残差网络中所应用的结构,,且b比a更节省计算时间与计算开销,但是作者想研究宽度对神经网络结果的影响,于是采取了结构a进行试验。