回归Regression(一元线性回归、岭回归、多元线性回归、多项式回归)

这篇博客介绍了回归分析中的关键概念,包括一元线性回归的预测函数、单样本误差、总样本误差、损失函数及梯度下降法寻优。还探讨了岭回归如何通过正则化减轻过拟合问题,以及多项式回归如何扩展线性模型以适应非线性关系。
摘要由CSDN通过智能技术生成

四、一元线性回归

1. 预测函数

输入 输出
0 1
1 3
2 5
3 7
4 9
  • 预测函数为: y = 1 + 2 x y=1+2x y=1+2x

  • 预测:输入10;输出21

  • y = w 0 + w 1 x y=w_0+w_1x y=w0+w1x,任务就是寻找预测函数中的模型参数 w 0 w_0 w0 w 1 w_1 w1,以满足输入和输出之间的联系。

2. 单样本误差

  • 随机 x x x 代入 y = w 0 + w 1 x y=w_0+w_1x y=w0+w1x 得到 y ′ y' y ,则单样本误差为: e = ( y − y ′ ) 2 2 e=\frac{(y-y')^2}{2} e=2(yy)2

3. 总样本误差

  • 总样本误差为: E = ∑ ( y − y ′ ) 2 2 E=\sum {\frac{(y-y')^2}{2}} E=2(yy)2

4. 损失函数

  • 损失函数为: L o s s ( w 0 , w 1 ) = ∑ ( y − ( w 0 + w 1 x ) ) 2 2 Loss(w_0,w_1)=\sum {\frac{(y-(w_0+w_1x))^2}{2}} Loss(w0,w1)=2(y(w0+w1x))2

  • 任务就是寻找可以使损失函数取得最小值的模型参数 w 0 w_0 w0 w 1 w_1 w1

5. 梯度下降法寻优

  1. 随机选择一组模型参数 w 0 w_0 w0 w 1 w_1 w1 ,计算损失函数在该模型参数处的梯度 [ ∂ L o s s / ∂ w 0 , ∂ L o s s / ∂ w 1 ] [\partial{Loss}/\partial{w_0}, \partial{Loss}/\partial{w_1}] [Loss/w0,Loss/w1

  • 1
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值