DAY-1 计算机视觉知识点总结
原文连接:https://bbs.cvmart.net/articles/380
卷积神经网络(convolutional neural networks, CNN)
(1)卷积层
-
卷积是局部连接、共享参数版的全连接层
-
描述卷积的四个量
滤波器个数、感受野(滤波器空间局部连接大小)、零填补、步长
-
全连接层的卷积层等效
由于全连接层和卷积层都是做点乘,这两种操作可以相互等效。全连接层的卷积层等效只需要设定好卷积层的四个量:滤波器个数 = 原全连接层输出神经元个数、感受野 = 输入的空间大小、没有零填补、步长为1。
-
卷积操作实现
– 快速傅里叶变换(FFT)
实际中,当滤波器尺寸大时效果好,而对于通常使用的1×1和3×3卷积,加速不明显
– im2col(image to column)
im2col将与每个输出神经元相连的局部输入区域展成一个列向量,并将所有得到的向量拼接成一个矩阵。这样卷积运算可以用矩阵乘法实现。im2col的优点是可以利用矩阵乘法的高效实现,而弊端是会占用很大存储,因为输入元素会在生成的矩阵中多次出现。此外,Strassen矩阵乘法和Winograd也常被使用。现有的计算库如MKL和cuDNN,会根据滤波器大小选择合适的算法
(2) 汇合层
-
根据特征图上的局部统计信息进行下采样,在保留有用信息的同时减少特征图的大小,汇合层不包含需要学习的参数
-
作用
– 增加特征平移不变性、减小特征图大小 (降低过拟合风险)、最大汇合可以带来非线性
图像分类
-
基本结构
用conv代表卷积层、bn代表批量归一层、pool代表汇合层
最常见的网络结构顺序是 conv -> bn -> relu -> pool,其中卷积层用于提取特征、汇合层用于减少空间大小。随着网络深度的进行,图像的空间大小将越来越小,而通道数会越来越大。
-
LeNet-5
60K 参数。网络基本架构为:conv1 (6) -> pool1 -> conv2 (16) -> pool2 -> fc3 (120) -> fc4 (84) -> fc5 (10) -> softmax。括号中的数字代表通道数,网络名称中有5表示它有5层conv/fc层。
-
AlexNet
60M 参数。网络基本架构为:conv1 (96) -> pool1 -> conv2 (256) -> pool2 -> conv3 (384) -> conv4 (384) -> conv5 (256) -> pool5 -> fc6 (4096) -> fc7 (4096) -> fc8 (1000) -> softmax。
conv1使用11×11的滤波器、步长为4使空间大小迅速减小 (227×227 -> 55×55)
关键点:
- 使用ReLU激活函数,梯度特性更好,训练更快
- 使用随机失活(dropout)
- 大量使用数据扩充技术
-
VGG-16 / VGG-19
138M 参数。VGG-16的基本架构为:conv1^2 (64) -> pool1 -> conv2^2 (128) -> pool2 -> conv3^3 (256) -> pool3 -> conv4^3 (512) -> pool4 -> conv5^3 (512) -> pool5 -> fc6 (4096) -> fc7 (4096) -> fc8 (1000) -> softmax。 ^3代表重复3次。
关键点:
- 结构简单,只有3×3卷积和2×2汇合两种配置,并且重复堆叠相同的模块组合
- 参数量大,且大部分集中在全连接层中
- 合适的网络初始化和使用批量归一(batch normalization)层对训练深层网络很重要
-
GoogleNet
5M 参数。网络基本架构为:conv1 (64) -> pool1 -> conv2^2 (64, 192) -> pool2 -> inc3 (256, 480) -> pool3 -> inc4^5 (512, 512, 512, 528, 832) -> pool4 -> inc5^2 (832, 1024) -> pool5 -> fc (1000)。
关键点:
- 多分支分别处理,并级联结果
- 使用1x1 卷积降维
-
ResNet
有 residual 模块,包含两个3x3 卷积和一个短路连接(有效环节反向传播由于深度过深导致的梯度消失现象),具有短路连接的 ResNet 可以看成是许多不同深度而共享参数的网络的集成,网络数目随层数指数增加
关键点:
- 使用短路连接,使训练深层网络更容易,并重复堆叠相同模块组合
- 大量使用批量归一层
- 网络超过50层,使用更高效的瓶颈结构
-
改进或其他方法
preResNet ResNeXt 随机深度 DenseNet SENet
未完,待续