【特征缩放】机器学习专项课程学习记录3——特征缩放的四种方式

学习目标

学会对特征变量进行缩放。

笔记

1 为什么进行特征缩放(Feature Scaling)

加快学习曲线(Loss-iterations)收敛,减少振荡。观察下面的损失等高线图(cost contour plot),中心是损失最低点。不对特征进行缩放时(上图),等高线图非常不对称;特征缩放后,等高线图更加对称,表明梯度下降可以使得每个参数都平等地靠近损失最低点,此时也可以使用更大的学习率。
在这里插入图片描述

2 特征缩放的四种方式

最早的方式:适用于较为简单的特征。 x i : = x i m a x x_i := \dfrac{x_i }{max} xi:=maxxi

通用方式:适用于任何特征。 x i : = x i − m i n m a x − m i n x_i := \dfrac{x_i - min}{max - min} xi:=maxminximin

均值标准化(Mean normalization): x i : = x i − μ i m a x − m i n x_i := \dfrac{x_i - \mu_i}{max - min} xi:=maxminxiμi
Z标准化(Z-score normalization):将特征j的均值转化为0,标准差转化为1。其中, μ j \mu_j μj是特征j的均值, σ j \sigma_j σj是特征j的标准差。
x j ( i ) = x j ( i ) − μ j σ j x^{(i)}_j = \dfrac{x^{(i)}_j - \mu_j}{\sigma_j} xj(i)=σjxj(i)μj

需要注意的地方

在对training set的数据进行缩放时,要注意保存max、min、 μ \mu μ σ \sigma σ等值,因为模型训练好后对dev set进行预测时还要再次使用这些值对dev set的特征数据进行缩放。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值