机器学习---线性回归

本节我们讲3种求解线性回归问题的方法

我们首先来看一元线性回归:


1、梯度下降法(Gradient Descent)


这里解释一下,这里的deltaJ是导数,也就是梯度,因此只需要一直迭代就OK,并不需要讨论什么情况下应该采用或者舍弃该迭代过程,但是,注意选取合适的学习速率alpha,防止步数太大找不到最低点。

但是梯度下降法有可能只取到局部最低,并不能达到全局最低,这个和初始点选取有关。

初始点可以多选取几次。


2、牛顿法(Newton's Method)


这个方法用1次导数比上2次导数,没有学习速率


(该图片来自百度百科)

据说比梯度下降法收敛快一些。


3、正规方程法(Normal Equation)


这个不用迭代,直接就可以把theta求出来。

X第一列全为1,后边几列是数据库里的数据,因为在模型中theta前边的系数为1,x。其实也可以写为 H = THETA * X。此处的THETA和X都是矩阵,也方便之后扩展到多维。


多元的情况就是把X多加几个维度就好啦。公式一样~


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值