DAY-1 计算机视觉知识点总结

DAY-1 计算机视觉知识点总结

原文连接:https://bbs.cvmart.net/articles/380

卷积神经网络(convolutional neural networks, CNN)

(1)卷积层

  • 卷积是局部连接、共享参数版的全连接层

  • 描述卷积的四个量

    滤波器个数、感受野(滤波器空间局部连接大小)、零填补、步长

  • 全连接层的卷积层等效

    由于全连接层和卷积层都是做点乘,这两种操作可以相互等效。全连接层的卷积层等效只需要设定好卷积层的四个量:滤波器个数 = 原全连接层输出神经元个数、感受野 = 输入的空间大小、没有零填补、步长为1。

  • 卷积操作实现

    – 快速傅里叶变换(FFT)

    ​ 实际中,当滤波器尺寸大时效果好,而对于通常使用的1×1和3×3卷积,加速不明显

    – im2col(image to column)

    ​ im2col将与每个输出神经元相连的局部输入区域展成一个列向量,并将所有得到的向量拼接成一个矩阵。这样卷积运算可以用矩阵乘法实现。im2col的优点是可以利用矩阵乘法的高效实现,而弊端是会占用很大存储,因为输入元素会在生成的矩阵中多次出现。此外,Strassen矩阵乘法和Winograd也常被使用。现有的计算库如MKL和cuDNN,会根据滤波器大小选择合适的算法

(2) 汇合层

  • 根据特征图上的局部统计信息进行下采样,在保留有用信息的同时减少特征图的大小,汇合层不包含需要学习的参数

  • 作用

    – 增加特征平移不变性、减小特征图大小 (降低过拟合风险)、最大汇合可以带来非线性

图像分类
  • 基本结构

    用conv代表卷积层、bn代表批量归一层、pool代表汇合层

    最常见的网络结构顺序是 conv -> bn -> relu -> pool,其中卷积层用于提取特征、汇合层用于减少空间大小。随着网络深度的进行,图像的空间大小将越来越小,而通道数会越来越大。

  • LeNet-5

    60K 参数。网络基本架构为:conv1 (6) -> pool1 -> conv2 (16) -> pool2 -> fc3 (120) -> fc4 (84) -> fc5 (10) -> softmax。括号中的数字代表通道数,网络名称中有5表示它有5层conv/fc层。

  • AlexNet

    60M 参数。网络基本架构为:conv1 (96) -> pool1 -> conv2 (256) -> pool2 -> conv3 (384) -> conv4 (384) -> conv5 (256) -> pool5 -> fc6 (4096) -> fc7 (4096) -> fc8 (1000) -> softmax。

    conv1使用11×11的滤波器、步长为4使空间大小迅速减小 (227×227 -> 55×55)

    关键点:

    • 使用ReLU激活函数,梯度特性更好,训练更快
    • 使用随机失活(dropout)
    • 大量使用数据扩充技术
  • VGG-16 / VGG-19

    138M 参数。VGG-16的基本架构为:conv1^2 (64) -> pool1 -> conv2^2 (128) -> pool2 -> conv3^3 (256) -> pool3 -> conv4^3 (512) -> pool4 -> conv5^3 (512) -> pool5 -> fc6 (4096) -> fc7 (4096) -> fc8 (1000) -> softmax。 ^3代表重复3次。

    关键点:

    • 结构简单,只有3×3卷积和2×2汇合两种配置,并且重复堆叠相同的模块组合
    • 参数量大,且大部分集中在全连接层中
    • 合适的网络初始化和使用批量归一(batch normalization)层对训练深层网络很重要
  • GoogleNet

    5M 参数。网络基本架构为:conv1 (64) -> pool1 -> conv2^2 (64, 192) -> pool2 -> inc3 (256, 480) -> pool3 -> inc4^5 (512, 512, 512, 528, 832) -> pool4 -> inc5^2 (832, 1024) -> pool5 -> fc (1000)。

    关键点:

    • 多分支分别处理,并级联结果
    • 使用1x1 卷积降维
  • ResNet

    有 residual 模块,包含两个3x3 卷积和一个短路连接(有效环节反向传播由于深度过深导致的梯度消失现象),具有短路连接的 ResNet 可以看成是许多不同深度而共享参数的网络的集成,网络数目随层数指数增加

    关键点:

    • 使用短路连接,使训练深层网络更容易,并重复堆叠相同模块组合
    • 大量使用批量归一层
    • 网络超过50层,使用更高效的瓶颈结构
  • 改进或其他方法

    preResNet ResNeXt 随机深度 DenseNet SENet

未完,待续

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值