深度学习之基础模型-总结

本文总结了深度学习的基础模型发展历程,包括AlexNet、VGG、ResNet、Inception系列、SqueezeNet、MobileNet和DenseNet等,探讨了网络结构优化如残差连接、归一化、分组卷积等技术,以及模型压缩和训练策略的演进。
摘要由CSDN通过智能技术生成
目前来看,很多对 NN 的贡献(特别是核心的贡献),都在于NN的梯度流上,比如

- sigmoid会饱和,造成梯度消失。于是有了ReLU- ReLU负半轴是死区,造成梯度变0。于是有了LeakyReLUPReLU- 强调梯度和权值分布的稳定性,由此有了ELU,以及较新的SELU- 太深了,梯度传不下去,于是有了highway。
- 干脆连highway的参数都不要,直接变残差,于是有了ResNet- 强行稳定参数的均值和方差,于是有了BatchNorm- 在梯度流中增加噪声,于是有了 Dropout- RNN梯度不稳定,于是加几个通路和门控,于是有了LSTM- LSTM简化一下,有了GRU- GANJS散度有问题,会导致梯度消失或无效,于是有了WGAN- WGAN对梯度的clip有问题,于是有了WGAN-GP
说到底,相对于8,90年代(已经有了CNN,LSTM,以及反向传播算法),没有特别本质的改变。

注:上述内容来在《浅析Hinton最近提出的Capsule计划》(https://zhuanlan.zhihu.com/p/29435406)


这里写图片描述

网络结构

  • AlexNet


    这里写图片描述

    • 全卷积网络结构
    • ReLU Nonlinearity:饱和性问题,速度快
    • 多GPU训练
    • Local Response Normalization

      这里写图片描述
  • Network in Network
    • mlpconv:有效提升了局部特征提取能力【结构图】

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值