深度学习:归一化和去均值化

归一化是为了控制特征尺度,提高收敛效率和精度。包括最值归一化和均值方差归一化,如min-max标准化和Z-score标准化。去均值化通过减去均值防止梯度消散,改善神经网络的训练效果。
摘要由CSDN通过智能技术生成

归一化
进行归一化的原因是把各个特征的尺度控制在相同的范围内,这样可以便于找到最优解,不进行归一化时如左图,进行归一化后如右图,可发现能提高收敛效率,省事多了。
在这里插入图片描述                   
一种是最值归一化,比如把最大值归一化成1,最小值归一化成-1;或把最大值归一化成1,最小值归一化成0。适用于本来就分布在有限范围内的数据。
另一种是均值方差归一化,一般是把均值归一化成0,方差归一化成1。适用于分布没有明显边界的情况。

标准化(归一化)优点及其方法
标准化(归一化)两个优点:
1)归一化后加快了梯度下降求最优解的速度;
2)归一化有可能提高精度。

标准化(归一化)两种方法:
1)min-max标准化(Min-MaxNormalization):
  也称为离差标准化,是对原始数据的线性变换,使结果值映射到 [0 - 1] 之间。转换函数如下:
在这里插入图片描述                
其中max为样本数据的最大值,min为样本数据的最小值。这种方法有个缺陷就是当有新数据加入时,可能导致max和min的变化,需要重新定义。

2)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值