斯坦福cs231n计算机视觉——卷积神经网络初步

Week5  11/5-11/11

  1. 卷积神经网络初步 slides:lecture05( http://cs231n.stanford.edu/slides/2018/cs231n_2018_lecture05.pdf )

不使用汇聚层(池化层):很多人不喜欢汇聚操作,认为可以不使用它。比如在Striving for Simplicity: The All Convolutional Net一文中,提出使用一种只有重复的卷积层组成的结构,抛弃汇聚层。通过在卷积层中使用更大的步长来降低数据体的尺寸。有发现认为,在训练一个良好的生成模型时,弃用汇聚层也是很重要的。比如变化自编码器(VAEs:variational autoencoders)和生成性对抗网络(GANs:generative adversarial networks)。现在看起来,未来的卷积网络结构中,可能会很少使用甚至不使用汇聚层。

可视化例子:https://cs.stanford.edu/people/karpathy/convnetjs/demo/cifar10.html

作业:

  1. 完成 assignment2 中 FullyConnectedNets.ipynb 和 BatchNormalization.ipynb
  2. 思考一下卷积神经网络对比传统神经网络的优势在哪里?为什么更适合处理图像问题
  3. 了解和学习深度学习中的normalization方法( https://zhuanlan.zhihu.com/p/33173246 )
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值