Regression回归task 2

本文介绍了机器学习中的线性回归模型及其应用,如股票预测、自动驾驶和推荐系统。线性模型通过最小化损失函数来寻找最佳参数,采用梯度下降法进行优化。同时讨论了过拟合问题及正则化的使用,强调正则化可以降低模型复杂度,提高泛化能力。
摘要由CSDN通过智能技术生成

Regression回归
学习资源来源:https://www.bilibili.com/video/BV1Ht411g7Ef?p=3
用处:
Stock market forecast
Self-driving car自动驾驶-方向盘角度
Recommendation推荐系统

Step1:model

Y=b+w*xcp,,w,b are parameters(can be any value)
A set of function : model:f1,f2,
在这里插入图片描述
Linear model:y=b+Σwixi. xi: an attribute of input x (feature) wi:wight,b:bias

Step2:Goodness of finction

Training data->real data
Loss function L: input a function, output: how bad it is
L(f)=L(w,b)= Σ101(y^n-(b+w*xncp))2真正-估测

Step3:best function

让L(w,b)最小
在这里插入图片描述
gradient descent
1.一个参数
consider loss function L(w) with one parameter w
w*=arg minL(w)
随机选取wo,计算在w=w0,参数w对loss function的微分(切线斜率),找loss比较低的w值
更新w0,η(learning rate),重复达到local optimal(参数不再更新)
2.两个参数
在这里插入图片描述
In linear regression, the loss function L is convex(no local otimal等高线的)
Results
Y=b+wxcp,看testing data的误差 比对average error on training data
改进:一个更复杂的model:y=b+w1
xcp+w2*(xcp)2同理上面
更更复杂 :y=b+w1xcp+w2(xcp)2 +w3*(xcp)3。。。。。。
模型越复杂,training average error 越小,但是testing不一定,会发生overfitting(过拟合)

Back to step1:redsign the model

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Back to step 2:regularization正则化

Wi越接近0,function越平滑,(如果有一些干扰,一个平滑的function会受到较少的影响但是不能太平滑——调整λ,与调整b无关)
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值