线性回归

模型

回归(regression)是监督学习 的一个重要问题,是从输入空间到输出空间 的映射函数,等价于函数拟合:选择一条函数曲线使其很好的拟合已知数据且能很好的预测未知数据。

在监督学习中,模型即为所要学习的条件概率分布或决策函数,线性回归的假设空间(hypothesis space) ,是由一个参数向量决定的函数族。

当输入变量为多个时,即多元回归;当输出变量表示为输入变量的线性组合时,即为常见的线性回归形式。

每个具体的输入是一个实例(instance),通常由特征向量(feature vector)表示,大多情况下,会将实例从输入空间映射到特征空间再做线性运算,特征对结果的影响强弱可以由前面的参数体现,所以说,线性回归可以对样本是非线性的,只要对参数 θ 是线性的

线性回归函数模型记作:

hθ(x)=θx

其中, x 为特征向量x(1),x(2),...,x(n) x(i) 表示 x 的第i个特征;
hθ(x) 为预测值;
θ 为需要学习的参数。

策略

给定假设空间后,需要根据一个评价准则利用训练集学习参数,寻找对训练数据预测最好的参数,将这个参数作为该模型的参数。

对给定的n个属性(特征)描述的样本矩阵 X(m,n) 和长度为m的目标向量 y
X的每一行对应一个样本,共m个样本(measurements);
X的每一列对应样本的一个维度,共N维(regressors),外加一维全1常数项;
则训练集可表示为:

y=Xθ

线性回归的常用评价准则为最小化损失函数,选用平方损失作为损失函数,以预测值和真实值的误差的平方和为目标函数,即最小二乘法(可用中心极限定理与最大似然估计解释为什么选用这个目标函数,本质为假设参数 θ 服从正态分布,详细见附录) 记为:

minJ(θ)=12i=1m(hθ(xi)yi)=12XθyTXθy

xi 表示多个输入变量中的第 i 个,yi表示第 i 个输入变量的实际结果。
最终求得 θ 的解析式 为:

θ=(XTX)1XTy

附录

①监督学习 :在给定的训练数据集中,假设数据独立同分布,每组数据都有一个明确的标识(label)或结果,在建立预测模型的过程中,将训练数据的预测结果与实际结果进行比较,在给定的策略下,不断调整预测模型,直到模型的预测结果达到一个预测的准确率,常见的应用场景包括分类(classification)与回归(regression)。当数据未给定明确的标识或结果,即为无监督学习,这时的学习模型是为了推断数据的一些内在结构,聚类(clustering)是其常见的应用,有时候会通过聚类给数据添加标签,将问题转化为监督学习问题。

②输入空间,输出空间:输入与输出可能取值的集合

③假设空间:输入空间到输出空间的映射集合,包含所有可能的条件概率分布或决策函数。

④:最小二乘解释:
这里写图片描述

⑤:参数解析式求解:
这里写图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值