GoogleNet/Resnet学习记录

 

1. GoogleNet

1.1. 介绍    

  1. 2014竞赛第一
  2. 进化顺序:Inception V1->Inception V2->Inception V3->Inception V4
  3. 目的:提升性能
    1. 降参,降计算
    2. 加宽,深度

1.2. Inception V1网络:

  1. 核心组件 Inception Architecture-稀疏连接结构
    1. Split-Merge->1×1卷积,3×3卷积,5×5卷积,3×3池化;
      1. 增加网络对多尺度的适应性,提高多尺度特征,输出通道多尺度(感受野)化
      2. 增加网络宽度
      3. 串接合并所有分支输出
    2. Bottleneck Layer->使用NiN的1×1卷积进行特征降维,解决多尺度代理的高额参数&计算
      1. 大幅降低计算量10×

  1. 取消全连接
    1. 参数量大,减负,全连接层占用大量参数
      1. AlexNet:58.6M(6×6×256×4096+4096×4096+4096×4096)
      2. VGG:72M(7×7×256×4096+4096×4096+4096×1000)   
    2. 本质上是全尺寸卷积层
    3. 由全局平均池化替代(Global average pooling)
      1. 输入 7×7×1024
      2. 输出 1×1×1024

3. 辅助分类器

    - 解决前几层梯度消失问题

    - 有效加速收敛,测试阶段不可用

   

 

1.3. Inception V2网络 

  1. 核心组件
    1. Batch Normalization(批归一化)
      1. 解决Internal Covariate Shift问题(内部neuron数据分布发生变化)
      2. 白化:使每一层输出都规范化到N(0,1)
      3. 允许较高学习率
      4. 取代部分Dropout
      5. 在batch范围内对每个特征通道分别进行归一化
    2. 5×5卷积核->2个3×3卷积核
    3. 位置卷积-》BN->ReLU
    4. 配对使用scale&shift
      1. 添加一组你算子scale乘子bias偏置
      2. 这组参数需要学习

  

 

1.4 Inception V3 网络

  1. 核心组件
    1. 非对称卷积:N×N分解成1×N->N×1
    2. 降低参数数量和计算量
    3. 高效的降尺寸
      1. 避免表达瓶颈
        1. 降尺寸前增加特征通道
      2. 2个并行分支
        1. 卷积分支+池化分支
        2. 串接分支结果

    1. 取消浅层辅助分类器
      1. 完全无用
    2. 深层辅助分类器只在训练后期有用
      1. 加上BN和Dropout,主分类器Top1性能提升0.4%
      2. 正则化作用
      3. 用在最后一层17*17后

    1. 不增加计算量
      1. 避免表达瓶颈
      2. 增强结果(表达力)
        1. 宽度
        2. 深度

  

 

1.5 ResNet残差网络

  1. 核心组件Skip/shortcut connection
    1. Plain net:可以拟合出任意目标映射H(x)
    2. Residual net
      1. 可以拟合出任意目标映射F(x), H(x)=F(x)+x
      2. F(x)是残差映射,相对于identity来说
      3. 当H(x)最优映射接近identity时,很容易捕捉到小的扰动。

  1. 其他设计
    1. 全是3×3卷积核
    2. 卷积步长2取代池化
    3. 使用Batch Normalization
    4. 取消
      1. Max池化
      2. 全连接层
      3. Dropout

 

  1. 更深网络:根据Bootleneck优化残差映射网络
    1. 原始:3×3×256×256 -> 3×3×256×256
    2. 优化:1×1×256×4 -> 3×3×64×634 -> 1×1×64×256

1.6 Inception V4网络

1.7 ResNeXt网络

1.8 CNN设计准则

1.9 准确性&执行效率

1.10 性能对比

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值