线性回归及其梯度下降法(小结)

所谓回归,就是根据已知数据集及其标签集预测出一个模型,并可以根据这个预测出来的模型预测出未知标签的数据对应的。常见的回归方法有:线性回归、Lasso回归、Ridge回归、多项式回归、决策树等。

线性回归,就是根据实际数据集和标签集,找到最符合的,使得成立。其中为实际值与预测值之间的误差值

那么,怎么求解最优的拟合直线呢?

根据中心极限定理,可知误差值服从高斯分布。

在这里,我们省略极大似然估计过程,直接使用最小二乘法求解。

可知损失函数(目标函数)为:

                          (1)

其中,X,Y分别表示样本的数据集(特征数据)和标签集(实际目标值)。

通过解析的方式可以求得,

但是,由于这种方法需要将数据集和标签集全部转化为矩阵进行乘法运算(点乘)。所以在数据集较大的时候,存在实际程序运行较慢等缺点。

所以这里介绍我们常用的一种方法,梯度下降法

对于(1)式,对求偏导,得到

                                    

则其参数θ的更新方法为:

                                    

其中,表示上一次迭代的预测值。Y(i)和Xj分别表示当前第i个样本的数据点和实际值。

由于实例的参考较多,这里就不列举了。

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值