一:
tensorflow及CNN的基础讲解(这个还是很靠谱的):http://www.cnblogs.com/denny402/tag/tensorflow/
二:
讲VGG算法的帖子,分析的很透彻:
https://blog.csdn.net/qq_40027052/article/details/79015827
类比这可以看下大致代码的帖子(质量相对差很多):https://blog.csdn.net/roguesir/article/details/77051250
三:
这个里面有很多论文,质量很高
https://github.com/SnailTyan/deep-learning-papers-translation
四:
RESNET讲的觉得最好的--在三的链接里有这篇。是创建resnet的人写的论文
为什么残差比恒等更容易学习?--个人理解感性的说,就是残差去掉了基数,让变化放大,更敏感。再深层网络结构中,训练退化,就是权值更新在方向传播中,由于层级过深,犹如抖动牛鞭,无论挥鞭人抖的再卖力,在层层的衰减中,鞭头的抖动也是微乎其微。而想改变这种情况的,一个方法是,每一层剔除基数,放大差异。延缓衰减效应
https://www.jianshu.com/p/ca6bee9eb888 http://blog.leanote.com/post/ryan_fan/ResNet