纹理表示&卷积神经网络

本文探讨了卷积神经网络(CNN)在纹理表示中的作用,通过设计卷积核组提取图像纹理基,利用统计信息进行表示。CNN克服了全连接网络处理小图像的局限,包含卷积层、激活层、池化层和全连接层。卷积操作涉及卷积步长、边界填充,池化则用于减少计算量和防止过拟合。损失函数通常采用交叉熵,优化算法如SGD、ADAM等。此外,数据增强被用于提高模型泛化能力,包括翻转、缩放、色彩抖动等变换。
摘要由CSDN通过智能技术生成

纹理表示

规则纹理和随机纹理
基于卷积核组的纹理表示方法:

  • 思路:利用卷积核组提取图像中的纹理基;利用基元的统计信息来表示图像中的纹理。

卷积核组

  1. 设计卷积核组
  2. 利用卷积核组对图像进行卷积操作获得对应的特征响应图组。
  3. 利用特征相应图的某种统计信息来表示图像中的纹理。

纹理分类任务:

  • 忽略基元位置
  • 关注出现了哪种基元对应的纹理及基元出现的频率。

总结:

  1. 设计卷积核组;
  2. 利用卷积核组队图像进行卷积操作获得对应的特征响应图组;
  3. 利用特征响应图的某种统计信息来表示图像中的纹理。

卷积神经网络

1. 全连接神经网络的瓶颈

仅适合处理小图像,或者处理向量

2. 卷积神经网络

CONV——卷积层
RELU——激活层
POOL——池化层
FC——全连接层

卷积网络中的卷积核:
卷积核:不仅具有宽和高,而且还具有深度常写成相乘的形式
卷积核参数不仅包括和中存储的权值,还包括一个偏置值
卷积网络中的卷积操作
在这里插入图片描述
卷积层
在这里插入图片描述
卷积步长在这里插入图片描述
边界填充
卷积神经网络中最常用的填充方式是零值填充
在这里插入图片描述

特征响应图尺寸计算
给定输入数据矩阵时,影响暑促的特征图组尺寸大小的因素:

  • 卷积核的宽、高
  • 是否采用边界填充操作
  • 卷积步长
  • 该层的卷积和个数
    在这里插入图片描述
    池化操作:
  • 池化的作用:对每一个有特征响应图独立进行,降低特征响应图组中每个特征响应图的宽度和高度,减少后续卷积层的参数的数量,降低计算资源耗费,进而控制过拟合。
  • 池化操作:对特征相应图的某个区域进行池化就是在该区域上指定一个值来代表整个区域q
  • 常见的池化操作:
    最大池化——使用区域内的最大值来表示这个区域
    平均池化——采用区域内所有值的均值作为代表
  • 池化层的超参数:池化窗口和池化步长

池化操作对每一个特征相应图独立进行
对特征响应图的某个区域进行池化也就是在该区域上指定一个值来代表整个区域

池化操作示例:
在这里插入图片描述
操作后,特征相应图中的75%的相应信息都丢掉,但不改变特征响应图的个数。

3. 损失函数&优化算法:

损失函数:交叉熵损失
优化算法:SGD、带动量的SGD以及ADAM

样本增强:

  • 存在的问题:过拟合的原因是学习样本太少,导致无法训练出能够泛化到新数据的模型。
  • 数据增强:是从现有的训练样本中生成更多的训练数据,其方法是利用多种能够生成可信图像的随机变换来增加样本。
  • 数据增强的目标:模型在训练时不会两次查看完全相同的图像。这样模型能够观察到数据的更多内容。从而具有更好的泛化能力。

样本增强:

  1. 翻转
  2. 随即缩放&抠图
  3. 色彩抖动
  4. 平移
  5. 旋转
  6. 等…
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值