机器学习笔记(二)吴恩达课程视频

 多元变量线性回归

1.多维特征:

 

 2.多元梯度下降:

代价函数:(目标与单变量一致,要找出使代价函数最小的一系列参数)

梯度下降算法

梯度下降算法——特征缩放:

除了\small x_{0}=1固定以外,\small x_{i}的值都要变成[-1,1]范围左右之间的取值,不仅仅是[-1,1],可以在该范围内波动,但是不要幅度太大。

(平均值指的是训练集中不同组别的同一特征值的平均值)

梯度下降算法——学习率

观测算法收敛的现象:可以绘制迭代次数与代价函数的的图表;也可以将代价函数的变化与某个阈(如0.001)值进行比较。

根据不同的情况,建立不同的模型

 

3.正规方程

这样求出来的?向量就是最优解,即该?向量中的n个?值为使得代价函数最小的一系列最优值。

3.向量化

梯度下降回归计算:

等价换算为:把 ?看做一个向量,然后用 ?-? 乘以某个别的向量来更新 ?。

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值