机器学习部分:均值归一化问题

本文介绍了机器学习中的一种特征缩放方法——均值归一化,通过将特征值减去平均值并除以范围,使得特征具有0均值,有助于加速梯度下降的收敛过程。举例说明了如何对房子的大小和卧室数量进行归一化处理。
摘要由CSDN通过智能技术生成

均值归一化(mean normalization)

除了在特征缩放中将特征除以最大值以外,有时候我们也会进行一个称为均值归一化(mean normalization)的工作。

具体做法就是:如果你有一个特征xixi你就用xi−μixi−μi来替换。这样做的目的是为了让你的特征值具有为0的平均值。很明显 我们不需要把这一步应用到x0中,因为x0x0中,因为x0总是等于1的,所以它不可能有为0的的平均值。

但是对其他的特征来说,比如房子的大小取值介于0 ~ 2000,并且假如房子面积的平均值是等于1000的,那么你可以用这个公式

x1=size−10002000x1=size−10002000

类似地,如果你的房子有五间卧室,并且平均一套房子有两间卧室,那么你可以使用这个公式来归一化你的第二个特征x2:

x2=卧室数−25x2=卧室数−25

在这两种情况下你可以算出新的特征x1和x2x1和x2,它们的范围可以在-0.5 ~ +0.5之间,当然这肯定不对,x2的值实际上肯定会大于0.5。更一般的规律是用:

xn−μnSnxn−μnSn, , μn为平均值μn为平均值, , Sn为最大值−最小值Sn为最大值−最小值

来替换原来的特征xnxn。其中定义μn的意思是在训练集中特征xnxn的平均值。而SnSn是该特征值的范围(最大值减去最小值)。

最后直的一提的是:特征缩放其实并不需要太精确,其目的只是为了让梯度下降能够运行得更快一点,让梯度下降收敛所需的循环次数更少一些而已。

#include<bits
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值