[Lecture 9 ] CNN Architectures(CNN架构)

课堂提问
  • Q1: 为什么学习ResNet中学习残差比学习直接映射要好?
  • A1: 具体请阅读原论文,但是从直觉上来说,我们直接学习映射,然后网络层堆的越来越多,最后可能太复杂了,但是如果学习残差,则我们加深网络的同时只是学习的残差 F ( X ) = H ( X ) − X F(X)=H(X)-X F(X)=H(X)X,如果学的过于复杂了,网络只需要学习残差F(X)=0,就可以将其挤掉,即一个恒等映射。
1. LeNet-5

在这里插入图片描述
第一次用CNN来做手写体识别,网络比较浅,只有5层。

2. AlexNet

在这里插入图片描述

  • 其在LeNet上做了一些改进,同时由于当时GPU容量不足,其特征图的前向计算和梯度的反向传播是在两张GPU上并行进行的。
    在这里插入图片描述
    在这里插入图片描述
  • 其获得了2012年的ImageNet的冠军
3. ZFNet
  • 其在AlexNet上做了一些超参数的优化,但是主要结构还是类似的,获得了2013年的ImageNet的冠军。
    在这里插入图片描述
4. VGGNet

在这里插入图片描述

  • 其的关键特点是固定使用 3 ∗ 3 3*3 3
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值