机器学习系列(2):线性回归

一、线性回归模型

线性回归假设特征和结果满足线性关系。其实线性关系的表达能力非常强大,每个特征对结果的影响强弱可以由前面的参数体现,而且每个特征变量可以首先映射到一个函数,然后再参与线性计算。这样就可以表达特征与结果之间的非线性关系。
我们可以有这样的模型表达:
在这里插入图片描述
其中,x1,x2,…,xn 表示自变量量(特征分量), y表示因变量,θi 表示对应自变量(特征)的权重,θ0是偏倚项(又称为截距)。
对于参数θ ,在物理上可以解释为:在自变量(特征)之间相互独立的前提下,θi 反映自变量xi对因变量yi 的影响程度, θi 越大,说明对结果的影响越大。因此,我们可以通过每个自变量(特征)前面的参数,可以很直观的看出哪些特征分量对结果的影响比较大。
如果令x0=1,y=hθ(x)可以将上述模型写成向量形式,即:
在这里插入图片描述
其中θ=(θ01,…,θn) ,x=(1,x1,x2,…,xn) 均为向量, θT为θ的转置。
在上述公式中,假设特征空间与输入空间相同。准确地讲,模型表达式要建立的是特征空间与结果之间的关系。在一些应用场合中,需要将输入空间映射到特征空间中,然后建模,定义映射函数为 ,因此我们可以把公式写成更通用的表达公式:
在这里插入图片描述
特征映射相关技术,包括特征哈希、特征学习、 Kernel等。

二、目标函数

2.1 目标函数

上面的公式的参数向量θn+1维的,每个参数的取值是实数集合,也就是说参数向量在n+1维实数空间中取值结果有无穷种可能。
那么,如何利用一个规则或机制帮助我们评估求得的参数θ ,并且使得线性模型效果最佳呢?直观地认为,如果求得参数线性求和后,得到的结果 hθ(x) 与真实值y之差越小越好。
这时我们需要映入一个函数来衡量 hθ(x) 表示真实值y好坏的程度,该函数称为损失函数(loss function,也称为错误函数)。数学表示如下:
在这里插入图片描述
这个损失函数用的是 x(i) 的预测值 hθ(x(i)) 与真实值 y(i) 之差的平方和。如果不考虑诸如过拟合等其他问题,这就是我们需要优化的目标函数。

2.2 目标函数的概率解释

一般地,机器学习中不同的模型会有相应的目标函数。而回归模型(尤其是线性回归类)的目标函数通常用平方损失函数来作为优化的目标函数(即真实值与预测值之差的平方和)。为什么要选用误差平方和作为目标函数呢?答案可以从概率论中的中心极限定理、高斯分布等知识中找到。

2.2.1 中心极限定理

目标函数的概率解释需要用到中心极限定理。中心极限定理本身就是研究独立随机变量和的极限分布为正态分布的问题。
中心极限定理的公式表示为:
n个随机变量X1,X2,…,Xn相互独立,均具有相同的数学期望与方差,即E(Xi)=μ; D(Xi)=σ2 令Yn为随机变量之和,有
在这里插入图片描述
称随机变量Zn 为n个随机变量X1,X2,…,Xn的规范和。
它的定义为:
设从均值为μ、方差为 σ2(有限)的任意一个总体中抽取样本量为n的样本,当n充分大时,样本均值的抽样分布Yn/n近似服从于均值为μ、方差为 σ2的正态分布。

2.2.2 高斯分布

假设给定一个输入样例 x(i) 根据公式得到预测值θTx(i) 与真实值y(i) 之间存在误差,即为 ε(i)。那么,它们之间的关系表示如下:
在这里插入图片描述而这里假设误差ε(i) 服从标准高斯分布是合理的。
解释如下:
回归模型的最终目标是通过函数表达式建⽴立自变量x与结果y之间的关系,希望通过x能较为准确地表示结果y 。而在实际的应用场合中,很难甚至不可能把导致y的所有变量(特征)都找出来,并放到回归模型中。那么模型中存在的x通常认为是影响结果y最主要的变量集合(又称为因子,在ML中称为特征集)。根据中心极限定理,把那些对结果影响比较小的变量(假设独立同分布)之和认为服从正态分布是合理的。
可以用一个示例来说明误差服从高斯分布是合理的:
AndrewNg的课程中第一节线性回归的例子中,根据训练数据建立房屋的面积x与房屋的售价y之间的函数表达。它的数据集把房屋面积作为最为主要的变量。除此之外我们还知道房屋所在的地段(地铁、学区、城区、郊区),周边交通状况,当地房价、楼层、采光、绿化面积等等诸多因素会影响房价。
实际上,因数据收集问题可能拿不到所有影响房屋售价的变量,可以假设多个因素变量相互独立,根据中心极限定理,认为变量之和服从高斯分布。即:
在这里插入图片描述
那么x和y的条件概率可表示为:
在这里插入图片描述

2.2.3 极大似然估计与损失函数极小化等价

根据上述公式估计得到一条样本的结果概率,模型的最终目标是希望在全部样本上预测最准,也就是概率积最大,这个概率积就是似然函数。优化的目标函数即为似然函数,表示如下:
在这里插入图片描述
L(x) 取对数,可得对数似然函数:
在这里插入图片描述
由于n,σ都为常数,因此上式等价于
在这里插入图片描述
我们可以发现,经过最大似然估计推导出来的待优化的目标函数与平方损失函数是等价的。因此可以得出结论:
线性回归误差平方损失极小化与极大似然估计等价。其实在概率模型中,目标函数的原函数(或对偶函数)极小化(或极大化)与极大似然估计等价,这是一个带有普遍性的结论。比如在最大熵模型中,有对偶函数极大化与极大似然估计等价的结论。
那上面为什么是条件概率p(y|x;θ) 呢?因为我们希望预测值与真实值更接近,这就意味着希望求出来的参数θ,在给定输入x的情况下,得到的预测值等于真实值得可能性越大越好。而θ,x 均为前提条件,因此用条件概率p(y|x;θ) 表示。即p(y|x;θ) 越大,越能说明估计的越准确。当然也不能一味地只有该条件函数,还要考虑拟合过度以及模型的泛化能力问题。

三、参数估计

如何调整参数θ 使得J(θ) 取得最小值?方法有很多,这里里介绍几种比较经典的方法,即最小⼆二乘法、梯度下降法以及牛顿法。

3.1 最小二乘法

3.1.1 目标函数的矩阵形式

将m个n维样本组成矩阵X:
在这里插入图片描述
则目标函数的矩阵形式为
在这里插入图片描述

3.1.2 最小二乘法求解

对θ求导,梯度(矩阵求导):
在这里插入图片描述
令其为零,求得驻点:
在这里插入图片描述

3.2 梯度下降法

梯度下降法是按下面的流程进行的:

  • 1)首先对θ赋值,这个值可以是随机的,也可是让θ是一个全零的向量;
  • 2)改变θ的值,使得J(θ)按梯度下降的方向进行减少。
    为了更清楚,给出下面的图:
    在这里插入图片描述
    这是一个表示参数θ与目标函数J(θ)的关系图,红色的部分是表示J(θ)有比较高的取值,我们需要的是,能够让J(θ)的值尽量的低。也就是深蓝色的部分。θ0和θ1表示 向量的两个维度。
    在上面提到梯度下降法的第一步是给θ一个初值,假设随机给的初值是在图上的十字点。然后我们将θ按照梯度下降的方向进行调整,就会使得J(θ)往更低的方向进行变化,如图所示,算法的结束将是在J(θ)下降到无法继续下降为止。
    当然,可能梯度下降的最终点并非是全局最小点,可能是一个局部最小点,比如下面这张图中描述的就是一个局部最小点,这是我们重新选择了了一个初始点得到的,看来我们这个算法会在很大程度上被初始点的选择影响而陷入局部最小点。
    在这里插入图片描述
    下面对于目标函数J(θ)求偏导数:
    在这里插入图片描述
    下面是更新的过程,也就是θ会向着梯度最小的方向进行减少。θ表示更新之前的值,a表示步长,也就是每次按照梯度减少的⽅方向变化多少,由于求得是极小值,因此梯度方向是偏导数的反方向,结果为在这里插入图片描述
    一个很重要的地方值得注意的是,梯度是有方向的,对于一个向量θ,每一维分量θi都可以求出一个梯度的方向,我们就可以找到一个整体的方向,在变化的时候,我们就朝着下降最多的方向进行变化就可以达到一个最小点,不管他是全局的还是局部的。
    将梯度下降法应用到线性回归有三种方式:批处理梯度下降法、随机梯度下降法。

3.2.1 批量梯度下降法(BGD)

在这里插入图片描述
可以看出,参数θ的值每更新一次都要遍历样本集中的所有的样本,得到新的θj,看是否满足阈值要求,若满足,则迭代结束,根据此值就可以得到;否则继续迭代。注意到,虽然梯度下降法易受到极小值的影响,但是一般的线性规划问题只有一个极小值,所以梯度下降法一般可以收敛到全局的最小值。例如,J 是二次凸函数,则梯度下降法的示意图为:
在这里插入图片描述
图中,一圈上表示目标函数的函数值类似于地理上的等高线,从外圈开始逐渐迭代,最终收敛全局最小值。

3.2.2 随机梯度下降算法(SGD)

在这里插入图片描述
在这个算法中,我们每次更新只用到一个训练样本,若根据当前严格不能进行迭代得到一个,此时会得到一个,有新样本进来之后,在此基础上继续迭代,又得到一组新的和,以此类推。
批量梯度下降法,每更新一次,需要用到样本集中的所有样本;随机梯度下降法,每更新⼀一次,只用到训练集中的一个训练样本,所以一般来说,随机梯度下降法能更快地使目标函数达到最小值(新样本的加入,随机梯度下降法有可能会使目标函数突然变大,迭代过程中在变小。所以是在全局最小值附近徘徊,但对于实际应用来说,误差完全能满足要求)。另外,对于批量梯度下降法,如果样本集增加了一些训练样本,就要重新开始迭代。由于以上原因,当训练样本集较大时,一般使用随机梯度下降法。

  • 3
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值