Week5 11/5-11/11
- 卷积神经网络初步 slides:lecture05( http://cs231n.stanford.edu/slides/2018/cs231n_2018_lecture05.pdf )
- 观看视频 p11, p12 和 p13,学习 CNN 中的卷积层和池化层
- 学习卷积神经网络笔记( https://zhuanlan.zhihu.com/p/22038289?refer=intelligentunit )
不使用汇聚层(池化层):很多人不喜欢汇聚操作,认为可以不使用它。比如在Striving for Simplicity: The All Convolutional Net一文中,提出使用一种只有重复的卷积层组成的结构,抛弃汇聚层。通过在卷积层中使用更大的步长来降低数据体的尺寸。有发现认为,在训练一个良好的生成模型时,弃用汇聚层也是很重要的。比如变化自编码器(VAEs:variational autoencoders)和生成性对抗网络(GANs:generative adversarial networks)。现在看起来,未来的卷积网络结构中,可能会很少使用甚至不使用汇聚层。
可视化例子:https://cs.stanford.edu/people/karpathy/convnetjs/demo/cifar10.html
作业:
- 完成 assignment2 中
FullyConnectedNets.ipynb
和BatchNormalization.ipynb
- 思考一下卷积神经网络对比传统神经网络的优势在哪里?为什么更适合处理图像问题
- 了解和学习深度学习中的normalization方法( https://zhuanlan.zhihu.com/p/33173246 )