纹理表示&卷积神经网络
纹理表示
规则纹理和随机纹理
基于卷积核组的纹理表示方法:
- 思路:利用卷积核组提取图像中的纹理基;利用基元的统计信息来表示图像中的纹理。
卷积核组
- 设计卷积核组
- 利用卷积核组对图像进行卷积操作获得对应的特征响应图组。
- 利用特征相应图的某种统计信息来表示图像中的纹理。
纹理分类任务:
- 忽略基元位置
- 关注出现了哪种基元对应的纹理及基元出现的频率。
总结:
- 设计卷积核组;
- 利用卷积核组队图像进行卷积操作获得对应的特征响应图组;
- 利用特征响应图的某种统计信息来表示图像中的纹理。
卷积神经网络
1. 全连接神经网络的瓶颈
仅适合处理小图像,或者处理向量
2. 卷积神经网络
CONV——卷积层
RELU——激活层
POOL——池化层
FC——全连接层
卷积网络中的卷积核:
卷积核:不仅具有宽和高,而且还具有深度常写成相乘的形式
卷积核参数不仅包括和中存储的权值,还包括一个偏置值
卷积网络中的卷积操作
卷积层
卷积步长
边界填充
卷积神经网络中最常用的填充方式是零值填充
特征响应图尺寸计算
给定输入数据矩阵时,影响暑促的特征图组尺寸大小的因素:
- 卷积核的宽、高
- 是否采用边界填充操作
- 卷积步长
- 该层的卷积和个数
池化操作: - 池化的作用:对每一个有特征响应图独立进行,降低特征响应图组中每个特征响应图的宽度和高度,减少后续卷积层的参数的数量,降低计算资源耗费,进而控制过拟合。
- 池化操作:对特征相应图的某个区域进行池化就是在该区域上指定一个值来代表整个区域q
- 常见的池化操作:
最大池化——使用区域内的最大值来表示这个区域
平均池化——采用区域内所有值的均值作为代表 - 池化层的超参数:池化窗口和池化步长
池化操作对每一个特征相应图独立进行
对特征响应图的某个区域进行池化也就是在该区域上指定一个值来代表整个区域
池化操作示例:
操作后,特征相应图中的75%的相应信息都丢掉,但不改变特征响应图的个数。
3. 损失函数&优化算法:
损失函数:交叉熵损失
优化算法:SGD、带动量的SGD以及ADAM
样本增强:
- 存在的问题:过拟合的原因是学习样本太少,导致无法训练出能够泛化到新数据的模型。
- 数据增强:是从现有的训练样本中生成更多的训练数据,其方法是利用多种能够生成可信图像的随机变换来增加样本。
- 数据增强的目标:模型在训练时不会两次查看完全相同的图像。这样模型能够观察到数据的更多内容。从而具有更好的泛化能力。
样本增强:
- 翻转
- 随即缩放&抠图
- 色彩抖动
- 平移
- 旋转
- 等…