机器学习之线性回归

本文深入探讨了线性回归的基本方程和目标函数,解释了其寻找最小误差的目标。通过矩阵形式展示求解过程,并指出矩阵不可逆及大矩阵计算问题。接着介绍了岭回归作为解决不可逆问题的策略,以及梯度下降法来应对大矩阵计算,以简化运算并找到最优解。文章还提及其他优化方法,如回溯线性搜索和二分插值。
摘要由CSDN通过智能技术生成

线性回归方程:
f(X)=X’W
这里X是矩阵,每一列代表一个数据,最后一维表示常数1.
W是我们要求的参数。
这里x’表示转置

线性回归的目标方程:
线性回归方程目标方程(普通最小二乘法)
其中T代表转置
本质:预测结果与实际结果的方差,我们的目标就是要求该误差尽量小。显然这个目标函数是一个凸函数,极小就是最小。
该目标方程的矩阵形式:
这里写图片描述
对W求偏导数,令偏导数等于0。具体过程
偏导数:这里写图片描述
这里写图片描述
这里的-1表示是矩阵的逆。
至此,我们已经可以从一定样本进行线性回归找出直线的最优解。当前求出的W是最优解。
我们可以看到上式要求矩阵的逆,显然当矩阵是不可逆时,上式是行不通的。并且求矩阵的逆运算复杂,当矩阵很大时,计算量很大。
下面给出解决上述问题的方法:
1.岭回归:主要解决不可逆的情况:
计算公式如图:
这里写图片描述
其中I是单位矩阵,显然加入这么矩阵可以保证矩阵是正定的,因此,矩阵也就是可逆的。
2.梯度下降法,解决矩阵过大时计算量的问题。
公式:
这里写图片描述
其中alpha是学习率。
具体操作过程:
先随机初始化W
然后迭代上述公式,直到最后指定的迭代次数,或者W达到最优为止。
当然解决上述问题:还有很多:回溯线性搜索、二分插值等等。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值