线性回归之最小二乘法、梯度下降法,以及经验风险、期望风险和结构风险

线性回归是通过拟合直线方程预测输出的模型,常用损失函数为平方误差。最小二乘法寻找全局最小,但计算成本高;梯度下降法迭代求解,可能找到局部最优。过拟合可通过正则化解决,如L1和L2正则。机器学习调参涉及λ和p的选择,常用交叉验证。经验风险、期望风险和结构风险是模型评估的关键概念,结构风险平衡了过拟合风险和模型复杂度。
摘要由CSDN通过智能技术生成

线性回归

回归分析(regression analysis)用来建立方程模拟两 个或者多个变量之间如何关联
被预测的变量叫做:因变量(dependent variable), 输出(output)
被用来进行预测的变量叫做: 自变量(independent variable), 输入(input)
一元线性回归包含一个自变量和一个因变量
以上两个变量的关系用一条直线来模拟
如果包含两个以上的自变量,则称作多元回归分析 (multiple regression)

线性回归假定输入变量(X)和单个输出变量(Y)之间呈线性关系。它旨在找到预测值 Y 的线性方程:y = ax + b

代价函数
在这里插入图片描述
则对于每个样本点 ,根据我们的直线方程,预测值为:在这里插入图片描述

很显然,我们希望直线方程能够尽可能地拟合真实情况,也就是说真值 和预测值 的差距尽量小。只有所有的样本的误差都小,才能证明我们找出的直线方程拟合性好。

通常来说,为了防止正误差值和负误差值相抵的情况,使用绝对值来表示距离:
在这里插入图片描述
但是在线性回归中,我们需要找极值,需要函数可导,而 不是一个处处可导的函数,因此很自然地想到可以使用:
在这里插入图片描述
故损失函数采用的平方值

线性回归中经常使用的两种算法
最小二乘法
在这里插入图片描述
公式推到:见博文:<

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值