线性回归 最小二乘法求

这篇博客介绍了线性回归作为监督学习中的回归算法,重点讲述了线性回归模型和损失函数,特别是通过平方损失函数和最小二乘法求解回归方程的过程。文章详细推导了如何对参数a和b进行求导,以找到使误差最小的直线方程。
摘要由CSDN通过智能技术生成
  • 回归是另一类重要的监督学习算法。与分类不同的是,回归问题的目标是通过对训练样本的学习,得到从样本特征到样本标签之间的映射,且样本标签是连续值。
  • 线性回归的问题中,目标值与特征之间存在线性相关的关系
  • 线性回归模型
    • 对于线性回归算法,希望从训练数据中学习到线性回归方程,即: y = b + ∑ i = 1 n w i x i y = b + \sum_{i=1}^{n}w_{i}x_{i} y=b+i=1nwixi
      其中,b是偏置, w i w_{i} wi是回归系数,另 x 0 = 1 x_{0} = 1 x0=1 则回归方程为: y = ∑ i = 0 n w i x i y = \sum_{i=0}^{n}w_{i}x_{i} y=i=0nwixi
  • 损失函数

    线性回归的损失函数可以是绝对损失 d = ∣ y − y ^ ∣ d = |y-\hat{y}| d=yy^或者平方损失 d = ( y − y ^ ) 2 d = (y-\hat{y})^2 d=(yy^)2.

  • 最小二乘法求解以及推导

    看了书上的矩阵方式,不太懂,就用一般的方式求吧。

    • 假设最终的直线方程为 y = a x + b y = ax + b y=ax+b,存在一个数据集 { ( x 1 , y 1 ) , ( x 2 , y 2 , . . . . . . , ( x n , y n ) ) } \left \{ (x_{1},y_{1}),(x_{2},y_{2}, ......,(x_{n},y_{n}))\right \} { (x
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值