深度学习历程之图片的预处理为什么要减去图片的平均值

本文探讨了深度学习中为何要对彩色图像进行减去平均值的预处理,通过主成分分析(PCA)的视角解释了这一操作的原因,并指出在自然图像上,减去均值有助于PCA算法的正常工作。同时,文章提到在使用梯度下降训练模型时,数据归一化也是必要的。
摘要由CSDN通过智能技术生成

问题的产生

这几天用MXNet写人脸关键点检测代码,中间忘了将图片在送入网络之前,减去图片的均值,从有关函数的名称来看,这算是一种归一化操作。总之,缺少这个操作的结果,就是loss一直在抖,丝毫没有下降或上升的趋势。所以今天从这个问题入手,对这问题相关进行掌握。

问题的研究

看了一些深度学习框架的例程,处理原图为黑白比如mnist数据集,不需要进行图片均值减去处理,而三通道彩图,一般都需要。

1、那为什么需要这种减去图片均值的预处理方式呢?
2、什么情况下需要采用这种预处理方式

从主成分分析着手

可以学习一下主成分分析

这里摘抄一部分主要内容:

对图像数据应用PCA算法

为使PCA算法能有效工作,通常我们希望所有的特征 都有相似的取值范围(并且均值接近于0)。如果你曾在其它应用中使用过PCA算法,你可能知道有必要单独对每个特征做预处理,即通过估算每个特征 的均值和方差,而后将其取值范围规整化为零均值和单位方差。但是,对于大部分图像类型,我们却不需要进行这样的预处理。假定我们将在自然图像上训练算法,此时特征 代表的是像素 的值。所谓“自然图像”,不严格的说,是指人或动物在他们一生中所见的那种图像。
注:通常我们选取含草木等内容的户外场景图片,然后从中随机截取小图像块(如16x16像素)来训练算法。在实践中我们发现,大多数特征学习算法对训练图片的确切类型并不敏感,所以大多数用普通照相机拍摄的图片,只要不是特别的模糊或带有非常奇怪的人工痕迹,都可以使用。
在自然图像上进行训练时,对每一个像素单独估计均值和方差意义不大,因为(理论上)图像任一部分的统计性质都应该和其它部分相同,图像的这种特性被称作平稳性(stationarity)。
具体而言,为使PCA算法正常工作,我们通常需要满足以下要求:(1)特征的均值大致为0;(2)不同特征的方差值彼此相似。对于自然图片,即使不进行方差归一化操作,条件(2)也自然满足,故而我们不再进行任何方差归一化操作(对音频数据,如声谱,或文本数据,如词袋向量,我们通常也不进行方差归一化)。实际上,PCA算法对输入数据具有缩放不变性,无论输入数据的值被如何放大(或缩小),返回的特征向量都不改变。更正式的说:如果将每个特征向量 都乘以某个正数(即所有特征量被放大或缩小相同的倍数),PCA的输出特征向量都将不会发生变化。
既然我们不做方差归一化,唯一还需进行的规整化操作就是均值规整化,其目的是保证所有特征的均值都在0附近。根据应用,在大多数情况下,我们并不关注所输入图像的整体明亮程度。比如在对象识别任务中,图像的整体明亮程度并不会影响图像中存在的是什么物体。更为正式地说,我们对图像块的平均亮度值不感兴趣,所以可以减去这个值来进行均值规整化。

从反向传播梯度着手

了解到基本在deep learning中只要你是使用gradient descent来训练模型的话都要在数据预处理步骤进行数据归一化。当然这也是有一定原因的。
根据公式

Ew(2)
  • 17
    点赞
  • 33
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值