ML6⃣️:特征缩放

1.1 Feature Scaling特征缩放

1.1 定义:

可以让gradient descent运行的更快。

1.2 确认feature和对应的parameter的值:

  • 当feature的范围比较大的时候,它对应的parameter值应该比较小。

请添加图片描述

1.3 rescale的原因

  • 如图,parameter取值像上图一样,我们做gradient descent时会很慢。通过rescaling可以让cost function接近圆形,使得gradient descent更加的快捷。

请添加图片描述

1.4 rescaling的3种方式:

  • feature scaling-- [0,1]
  • mean normalization
  • z-score normalization
    请添加图片描述

请添加图片描述
请添加图片描述

1.5 总结:范围太大/小都需要rescale。请添加图片描述

2.判断梯度下降是否收敛

  1. 一个适当的alpha,会使得在每一个iteration之后,J(w,b)都会下降。
  2. 如果J(w,b)上升,证明alpha选的不合适。
  3. J(w,b) 在400次iteration之后,learning curve开始趋于水平。这意味着,J(w,b)很可能converged by 400 iterations。
  4. 自动收敛检测automatic convergence test:如果每一个iteration后,J(w,b)的值下降的非常小(<=epsilon),则可以说他convergence了。

请添加图片描述

3.如何设置学习率

  1. 如果J(w,b) 时上时下 / 持续上升,要么有code错误,要么alpha太大了。
  2. 先将alpha设置为一个非常小的数,看一下J(w,b) 是不是在每一个iteration后都下降。如果不下降,则code有错误。
  3. 但如果alpha设置的太小了,要找到convergence要很久。
  4. 从很小的alpha开始,J(w,b)持续下降,则缓慢提高alpha请添加图片描述

4.特征工程

  1. 定义: 使用直觉,去设计一个新的feature,通过转移/结合原有的features。
  2. 找到最合适的features:
    请添加图片描述

5. 多项式回归

  1. 可以选择x^2 / x^ 3 / x^ 0.5请添加图片描述
    请添加图片描述
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值