问题描述
问题1:数据拟合
对于这样的n个样本点.我们想要建立一个合适的模型来拟合它们,并且能够对于一个新给出的,我们能预测出一个合理的。例如我们有近十年的GDP数据,我们想通过这个数据来预测明年的GDP。为了达到这个目的,我们需要一个合适的模型来拟合近十年的GDP数据,再把明年的特征项输入到这个模型中去,这样得到的值就是我们想要的明年的GDP的数据。
这样问题就变为了我们如何去找到一个这样的模型去拟合这些数据点。一个非常简单并且经典的想法就是线性模型(linear model).在线性回归(linear regression)中,我们总是做出这样的假设:
我们总是认为与之间存在一个线性关系,即:。但是在几何上,我们想让这么多个点都在同一条直线上是比较困难的,如果我们观测到的样本点都在同一条直线上,并且样本点的数量够多的话,我们有理由认为这些样本点就是从这条直线上取的。但是实际上,这样的情况很少,所以我们允许实际的关系与线性关系有一些偏差,并且每个样本点的偏差都不一样。这样我们就可以得到一个新的模型:
问题便转化为了得到数据点之后,我们该如何求得函数的参数值。
问题2:拟合逻辑值(0,1)
如果y值都只能是0或者1呢?即。当我们需要输出的函数值只能取0,1呢。这个时候线性模型是否还能够起作用呢?对于这样的数据点(-4,0),(-3,0),(-2,0),(-1,0),(1,0),(2,0),(3,0),(4,0)。我们将其画在图上:
接下来对这些样本点做线性回归:
可以看出来,线性回归的拟合效果很差,并且我们会输出小于0的数,这样的结果是不能被我们所接受的。出现这样的问题也是显而易见的,因为在这些数据点很明显并不呈现线性的分布,并且取值只能是0或者1。但是在线性模型中,很明显的取值范围是,所以我们做线性模型的假设并不合理。其实,在线性模型中为了得到一个好的拟合效果,我们总是假设服从正态分布(Guass distribution),,并且使用普通最小二乘法(OLS)对参数进行估计。但是对于只能取到0或者1的。这样的假设显然不合理。我们需要新的模型与方法。
寻找新模型(Logistics regression model)
这个新方法便是logistics regression(逻辑回归,又称对数几率回归,下面统一使用逻辑回归)进行描述。我们的模型的输出的值需要为0,1(逻辑值),所以称为逻辑回归。那么怎么让我们的模型的输出值为0,1呢?直接思考这个问题很困难,但是我们可以换个角度。在线性回归中,我们假设服从正态分布。那么在这里, 只能取到0或者1,我们是否可以假设其服从一个简单的分布------两点分布?这当然是可以的,给定样本点,我们总是可以算出的频率和的频率,并且算出其经验分布。经验分布总是能在样本量足够大的时候趋向于真实的分布。
通过上述分析我们就有了一个新的想法,如果给了我们一个,要是我们能估计出的概率和的概率。因为这两个概率相加总是等于1,要是的概率大一些,我们就认为,要是的概率大一些,我们就认为。这样我们的模型就建立好了一半了。剩下的一半便是如何估计这些概率了。
那么如何输出这些概率呢?首先我们先写出这样一个表达式:
或者以下的表达更加方便:
从这两个式子的推导就可以得到P是由所决定的。那我们该如何写出合适的呢?这样我们就要用到我们的老朋友线性模型了。但是线性模型的问题到目前为止还并没有解决,线性模型的输出值还是在中的。但是我们的目标值却是在0到1之间。如何解决这个问题呢?首先我们把(0,1)扩展到上。容易得到这样的一个式子是在上取值的:。再把扩展到上,对其取一个自然对数就好了:。这样我们就把(0,1)扩展到了上。
为了接下来的讨论方便起见,我们令:
.
若要用线性模型去拟合上面推导出的式子(这也是为什么逻辑回归实际上也是线性回归的一种),我们就得到了:
经过推导,我们得到了:
上述式子就是logistics regression中重要的sigmoid function:
这样我们就可以写出这样的函数来计算需要的:
或者我们也可以将其写为
实际上,sigmoid function具有十分良好的性质,它能够很快的收敛到1或者0:
可以看到,如果特征值足够的有"特点"的话,也就是距离0点有一些距离,甚至这个距离都不需要特别远。我们估计出的值就会十分靠近1或者0。换句话说,我们就能很容易的直接做出合理的预测,若是距离0点向右偏的足够多,使得足够靠近1,那么我们就认为。反之,我们就认为 。那么距离1有多远才算是靠近?这就涉及到了决策边界的问题。我们不妨假设一个阈值,如果>,我们就认为它靠近1,我们便认为。反之,我们就认为。
模型评估
线性回归中(这里的线性模型专指用于预测),我们常常会使用,和来评估模型的好坏。而在逻辑回归中,我们不再直接使用预测值与实际值的距离来评判模型的好坏。我们用模型是否能够成功对每个样本点进行分类来评判。因为逻辑回归实际上是一种分类算法(分类为0或者1)。为了方便表达,我们假设1为阳性,0为阴性。建立以下的表格:
TP为"真阳性"(True positive)的数量。即实际上为阳性,预测结果为阳性。
FP为"假阳性"(False positive)的数量。即实际上为阴性,预测结果为阳性。
FN为"假阴性"(False negative)的数量,即实际上为阳性,预测结果为阴性。
TN为"真阴性"(True negative)的数量,即实际上为阴性,预测结果为阴性。
第一个评判标准是准确率(accuracy):
这个很容易理解,我们当然希望我们预测的值与实际值一样,实际为阳性,我们预测也为阳性,实际为阴性,我们预测也为阴性。于是我们定义准确率为我们成功预测的占比。但是我们只以准确率作为评判标准是不够的。它很容易受到极端值的影响。让我们来考虑下面这样的一个表:
实际上我们设立的阈值非常高,或者模型总是输出一个小于的概率,导致的数量很少,甚至为0,更加极端一点,像上表一样,我们预测的Positive的数量为0。它的准确率很高,达到了95%。但是它却无法准确预测出任何一个实际上为Positive的样本点。这样的模型很明显是不好的。
第二个评判标准是查准率(precision):
查准率考察的是模型预测出来的阳性(Positive)有多少是正确的。查准率衡量模型对于阴性的区分能力。查准率越高,模型对阴性的区分能力就越强。
第三个评判标准是召回率(recall):
召回率考察的是模型预测出的阳性(Positive)在真实的阳性中的占比。召回率衡量模型对于阳性的识别能力。召回率越高,模型对阳性的识别能力就越强。我们认为上述极端例子中的召回率为0。即无法识别出阳性。
第四个评判标准是f1-score:
f1-score是查准率和召回率的综合,它可以用来评判模型的稳健性,f1-score越高,模型就越稳健。
ROC和AUC:
为了介绍ROC和AUC,我们首先来考察下面两个量:
(1) TPR(真阳性率,True Positive Rate):
实际为阳性,检测出来也为阳性的概率。
(2) FPR(假阳性率,False Positive Rate):
实际为阴性,检测出来为阳性的概率。
对于我们的预测模型,我们当然希望,真阳性率越高越好,假阳性率越低越好。让我们考虑下面这样的一个图像:
我们不妨假设这8个点中蓝色的点实际为Positive,红色的点实际为Negative。我们首先考虑当。
在这条虚线以上的我们预测其结果为Positive,反之,预测其为Negative。并且记录在下表中:
这样我们计算出来的TPR为0.75,计算出来的FPR为0.25。看上去效果还可以。接下来让我们换一个阈值0.95:
同样,我们能得到TPR为0.75,计算出来的FPR为0。
继续换一个阈值0.05:
我们能得到TPR为1,计算出来的FPR为0.25。
可以看到,对于不同的阈值,我们总能算出对应的TPR和FPR,更一般的,我们能得到下表
更加一般的,如果我们尽可能的遍历0,1中所有的数字,我们就能得到一组这样的值。我们以FPR为横坐标,TPR为纵坐标刻画出来的曲线,就是ROC曲线(受试者特征曲线,Receiver Operating Characteristic Curve)。
如果我们能得到一个模型的ROC曲线,那么我们所取到的阈值(决策边界),其所对应在ROC曲线上的点应该越靠近左上角越好。这样我们的真阳性率(TPR)就越会靠近1,假阳性率(FPR)就越会靠近0。如此一来,阈值的选择也就完成了。
那么什么是AUC呢?ROC除了可以用于阈值的选择,实际上还可以用于不同模型的比较。AUC(area under the curve)就是用来做这件事情的。AUC是ROC曲线下半部分的面积,这里AUC为0.9375。AUC的取值总是小于1。如果AUC越大,就说明它越靠近1,ROC曲线就能尽可能的越靠近左上角。一般来说,我们所选择的模型就会越好。
计算参数值
如何获得具体的,能够使用的呢?将问题换一个说法:我们如何通过已有的样本点估计出所需要的呢?
(1)统计推导:
注意到其实是一个分布的pmf。那么问题就变成了估计一个分布的参数值了。这里我们用统计中常用的方法------极大似然估计。这是一个具有很多良好性质的估计方法。使用这个方法需要用到连乘号,我们做一个经典的处理,在连乘号外加一个,得到下面的式子:
我们估计的就是为了让上面这个函数取值变得尽可能的大。
为了讨论方便和形式统一,我们定义:
我们只是在的左边乘上了。这样优化问题就变成了我们要求取使得尽可能的小了。
(2)惩罚函数:
所谓的惩罚函数也就是损失函数,我们在线性回归中定义的损失函数为:
这里我们同样定义一个惩罚函数,我们先对每个数据点设立一个惩罚项:
再其求取平均,得到惩罚函数为:
在对惩罚函数的形式进行解释之前,首先介绍香农熵的概念:
(1)信息量:
如果一个事件的发生概率为。那么我们就定义这个事件发生给我们带来的额外信息量。
如果一个事件发生的概率为1,那么就算它发生了,我们也不会感到惊讶,因为它本来就应该发生。这样的事件发生给我们带来的额外信息量就是0。但是如果一个事件发生的概率为0.001,从图中我们可以看出,这件事发生给我们带来的额外信息量非常大。这也很好理解,对于这样一件发生的概率为0.001的事件,如果它发生了,这会让我们非常惊讶,因为它发生的机会很少,所以由此带来的额外信息量也就非常大。
(2)熵:
熵是用来度量一个分布的不确定性。例如:,对于这样一个两点分布,在事件没有发生前,我们该如何度量的不确定性呢?首先我们要理解不确定性是指什么,如果P=0.99。那么这件事的不确定性应该是很小的,我们有很大的把握确定X的结果就是1。怎么来确定这个X的不确定性?我们通过求期望的方式。对所有可能的事件所带来的额外的信息量求均值。就是X的不确定性。
对于一个离散分布,我们定义它的熵为:
对于一个连续分布,我们定义它的熵为:
为了保证其连续性,我们约定。熵的单位随着log的底数的变化而变化。当底数为2时,单位为“比特”(bit),底数为e时,单位为“奈特”。
(3)相对熵:
相对熵(又称KL散度(Kullback-Leibler divergence))用来衡量两个随机分布间的距离。记为。它用来度量当真实的分布为p时,假设分布q的无效性。(p分布到q分布的KL散度)
同样为了保证连续性,我们约定。当p,q同分布时,=0。
(4)交叉熵:
交叉熵也用于描述两个概率分布之间的距离,其值越小说明这两个分布越相近。假设两个概率分布p,q,若p为真实分布,q为假设分布。则:KL散度=交叉熵-真实分布的熵。
交叉熵常常用于构造惩罚函数。在逻辑回归中,基于交叉熵构造的惩罚函数为:
这里解释一下第三个等式。这里y取1或者0。这是某个样本点的取值,因为每个都是服从真实分布p。而一旦确定了,那么。那么。所以可以直接转变为和。这里,对数符号里面的函数是指假设的分布q,也就是我们定义的模型。而在我们定义的模型中,与的概率是与相关的。所以如果实际上对于某个样本点,,则,那么后面那一项就为0。同样,在我们的假设模型中,如果y=1的概率为,那么,y=0的概率就为。
下面两图能加深对于上述式子的理解:
这里,若y=1,即真实值=1。输出的是假设分布下y=1的概率。可见,如果输出的是1,我们的惩罚就是0,因为这就是我们所期待的。如果 输出的是0,这个式子马上就会趋向于无穷大。惩罚就会无穷大。
倘若y=0,我们的惩罚函数就变为了。输出的是假设分布下y=1的概率。 如果输出的是0,我们的惩罚就是0。如果输出的是1,我们的惩罚就是无穷大。
对所有训练样本的惩罚函数取到均值就可以得到:
这与极大似然估计得到的惩罚函数的式子是一样的!
梯度下降法和随机梯度下降法
我们如何求取使得尽可能的小呢?这里我们必须提前说明这个惩罚函数是一个凸函数。原因就不再深入讨论了。如果感兴趣可以参考这里。下面的讨论需要用到的一阶导,这里我们附上公式。
首先有,又由于是对求导,注意到中,所以由求导的链式法则得到。其中。
得到的一阶导为:
梯度下降法(GD)
对于一个凸函数,我们要求它的最小值点,只需要它的一阶导等于0就可以了。(虽然可能存在很多驻点,但是我们只需要比较这些驻点的函数值就能得到最小值以及最小值点了)但是这并不是一个简单函数。并不像一个简单的二次函数一样(),对其求一阶导就能直接得到解析解。这里我们采用梯度下降法和随机梯度下降法求得它的数值解(有偏差,但是能够接受)。首先解释梯度下降法。其中公式中为学习率。或者称为步长。步长过大或者过小都会使得我们收敛到最小值所需要的步数增加。
它的思路就是算出某个点的函数的梯度,然后朝着梯度相反的方向前进。我总是朝着最陡的坡向下走,这样我总能最快速的走到比较低的位置。
对于函数,如果我们取初始值=6,这里如果我们取步长为0.3。就能利用公式得到上图,不断的算出。最后我们可以证明它会收敛到我们的最小值点3。(实际上,如果取步长为0.5,我们可以算出=3,立马就能得到最小值点。由此可见,步长的选取也是很重要的。)
但是梯度下降法有两个十分明显的缺点:
(1)如果数据集十分巨大,由 的一阶导的形式可以看到,每次为了前进一步,我们都必须把所有的数据拿到公式里面进行运算。所消耗的时间是非常大的。
(2)梯度下降法一旦被某个局部最小值点所捕获,则无法再离开(此时=0,,算法不再前进。)。但是我们需要的是全局最小值点。
随机梯度下降法(SGD)
随机梯度下降法能够很好地解决上面两个问题。这个方法的思想是,我们每次前进,都随机在的数据集中抽取K个数据点,然后把这些数据点的惩罚项加和求平均。作为新的。然后用下面这个式子前进。
,
其中是第i个数据点的惩罚项,为我们每次抽取的样本数。
如此一来我们就能很好地解决数据集十分巨大带来的问题,以及被局部最小值点吸收的问题。
它与梯度下降法的差别就在于,梯度下降法每次都使用全部的数据计算目前的位置的梯度,然后走1步。但是随机梯度下降法每次都只用一部分数据计算梯度(一般方向不会与用全部数据计算得到的梯度一样),然后走1步。在运用上,随机梯度下降法走的步数要比梯度下降法走的多的多,但是随机梯度下降法走的一般也要比梯度下降法快得多。而且由于抽取数据点的随机性,随机梯度下降法能够从局部最优点逃离。
附上多类逻辑回归的相关公式(不再做推导)
此时y可取到m类不同的点(不一定为数字,也可能是某个文字标签),若x有k个特征(feature)。则我们的参数矩阵为:
softmax function:
思路很简单,就是把它们正则化,再取其为相应的概率值。把每一行x与相乘,可以得到矩阵。将其代入到softmax function中,同样可以得到矩阵。就是对应m种y类的概率。最后取概率中较大那个为预测值。公式附上:
这是x的第i行的预测概率值,即第i个数据点的预测i值,我们在这其中取最大的那个,然后把它对应的y作为我们的预测值。(注:y有m个取值,这m个取值如果对应1,2,....m,我们开始时可以随便排序,但是一旦排序好之后就不会再变了。我们最开始排序仅仅影响我计算得出的参数矩阵)。
惩罚函数:
同样利用交叉熵构造
其中只有当时为,否则就为。同样可以用交叉熵去思考,如果我预测准确值的概率越高,我的惩罚就越小,如过预测其它项的概率越高,我的惩罚就越大。
我们的目标就是使得上述矩阵m个元素都尽可能的小(使得我们的惩罚尽可能的小)。
GD和SGD:
思路差不多,这里直接附上GD公式,SGD形式一样,可自推。
这里为x的第i行第k列数据,为的第k行第j列数据(如果x有k个feature,则x有k列,则有k行),为x的第i行数据,即第i个数据点。为的第j列数据。为序号j对应的y的取值。(对应的是第i个数据点,取到序号j对应的y的取值概率,具体可以看到上述公式。)
参考链接:
第一次写博客,文章主要用作于学习笔记,具体讲述了Logistic Regression的基本原理和数学方法。菜鸟入门,写博客也只是为了打发时间。如果博客对您能有所帮助,我将十分荣幸。如果您能对内容谬误进行指正,我也将十分感激。