【笔记】为什么需要归一化/标准化(Normalization)

1. 归一化的作用

在机器学习领域中,不同评价指标(即特征向量中的不同特征就是所述的不同评价指标)往往具有不同的量纲和量纲单位,这样的情况会影响到数据分析的结果,为了消除指标之间的量纲影响,需要进行数据标准化处理,以解决数据指标之间的可比性。原始数据经过数据标准化处理后,各指标处于同一数量级,适合进行综合对比评价。
其中,最典型的就是数据的归一化/标准化处理。数据之间差异过大的时候就需要标准化处理。

  • 如果不进行归一化,那么由于特征向量中不同特征的取值相差较大,会导致目标函数变“扁”。
    这样在进行梯度下降的时候,梯度的方向就会偏离最小值的方向,走很多弯路,即训练时间过长。
  • 如果进行归一化以后,目标函数会呈现比较“圆”,这样训练速度大大加快,少走很多弯路。

2. 通常用于特征标准化的途径有两种,

(1) 一种叫做 min max normalization,他会将所有特征数据按比例缩放到0-1的这个取值区间.有时也可以是-1到1的区间.
(2) 还有一种叫做 standard deviation normalization, 他会将所有特征数据缩放成 平均值为0, 方差为1.

使用这些标准化手段. 我们不仅可以快速推进机器学习的学习速度, 还可以避免机器学习 学得特扭曲.

【注】
对数据进行中心化预处理,这样做的目的是要增加基向量的正交性。

对数据标准化的目的是消除特征之间的差异性。便于对一心一意学习权重。

3. 参考资料

【1】数据什么时候需要做中心化和标准化处理?https://www.zhihu.com/question/37069477

【2】为什么要特征标准化 (机器学习):https://zhuanlan.zhihu.com/p/24839177

【3】机器学习——标准化/归一化的目的和作用:https://blog.csdn.net/zenghaitao0128/article/details/78361038

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
归一化(Batch Normalization)是一种在深度神经网络中常用的技术,它的主要目的是解决梯度消失和梯度爆炸的问题,同时还能加速网络的训练过程。 在深度神经网络中,随着网络层数的增加,输入数据在每一层的变化会逐渐放大或缩小,导致激活函数的输入值分布发生偏移。这种偏移会使得网络的学习变得困难,因为每一层的参数都需要重新适应新的输入分布。此外,由于每一层的参数都是通过反向传播算法进行更新的,梯度消失和梯度爆炸也会影响网络的训练效果。 批归一化通过对每一层的输入进行归一化处理,使得每一层的输入分布保持在一个较稳定的范围内。具体来说,它通过对每个小批量样本的均值和方差进行估计,然后对输入进行线性变换和平移操作,将输入数据重新映射到一个标准正态分布。这样做的好处是可以使得网络更容易学习到适应不同输入分布的参数,并且减少了梯度消失和梯度爆炸的问题。 批归一化的优点包括: 1. 提高网络的收敛速度:通过将输入数据归一化到一个标准分布,可以加速网络的训练过程,使得网络更快地收敛到最优解。 2. 减少梯度消失和梯度爆炸:通过控制每一层输入的范围,批归一化可以减少梯度消失和梯度爆炸的问题,使得网络更稳定地进行训练。 3. 提高模型的泛化能力:批归一化可以减少模型对输入数据分布的依赖,提高了模型的泛化能力,使得模型在测试集上的表现更好。 总之,批归一化是一种非常有效的技术,可以提高深度神经网络的性能和训练效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值