ML_2 linear regression algorithm

hypothesis:

cost function:

goal:

minisize(J)

梯度下降算法:

用来求函数最小值, 此处用来求代价函数J的最小值。

其中要同时改变

算法推导:


梯度下降算法事件1:特征缩放

最简单的缩放是:

梯度下降算法实践2:alpha(learning rate)

需要绘制cost function来观察在何处收敛

或者使用设置阈值的方式来判读收敛,但一般图像更能只管的观察

alpha过小,则达到收敛所需要的迭代次数非常高

alpha过大,可能会越过局部最小值导致无法收敛

一般考虑alpha = 0.001, 0.003, 0.01, 0.03, 0.1, 0. 3, 1, 10


特征和多项式回归:

正规方程算法(与梯度下降算法相对应):

原理:

为了寻求最优解,在低维的时候,正规方程组是最直接的方式。因为它要计算,其复杂度为。如图1,m代表样例,n代表特征

图1

图1中,矩阵X记录了特征值,向量y是实际的数据。要使h(x)与y的偏差最小,将要计算

就将问题转化为正规方程组,这种解决方式被称为“inconsistent”,下面给出证明:


更直观的图表解释:


当矩阵A的宽度小于它的高度时, A x = b 的解可用: 满足 A' (A x - b) = 0 的 x 来近似。

A x 的几何意义: 当 x 自由变动, A x 产生 A 的 column space。

A x = b 想要有解, b 必须落在 A x 的 column space 当中。

b 若不落在 A x 的 column space 当中, 只好退而求其次: 至少 b 的 投影projection 必然落在此空间当中 (by definition)。

试图寻找 x 使得 A x - b 的长度 (也就是误差值) 最小。



比较:




  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值