学习笔记------关于ResNet及其相关细节理解
先膜拜一下何凯明大神的奇妙想法为什么残差网络即使网络再深,训练的表现却不错,错误会减少假设有一个大型神经网络,其输入为x,输出激活值为a[l],如果你想增加这个神经网络的深度,就再给这个网络额外添加两层,最后输出为a[l+2],可以把这两层看作ResNet块,即具有近路连接的残差块。假设我们在整个网络中使用Relu激活函数,所以激活值都大于等于0。a[l+2]=g(...
原创
2019-10-28 18:51:58 ·
711 阅读 ·
0 评论