logistic回归分析不设参照_logistic回归原理分析

本文介绍了Logistic回归在分类问题中的应用,特别是二分类问题。通过理解决策边界概念,引入Sigmoid函数来确保输出值在0到1之间,作为概率解释。接着,构建代价函数并利用极大似然估计法推导,以优化参数并避免局部最优。整个过程详细阐述了Logistic回归的工作原理。
摘要由CSDN通过智能技术生成

一、logistic回归基本思路

logistic回归分析虽然称其回归,但实际主要用于分类问题,且主要为二分类问题(多分类问题可以多次使用logistic二分类进行细分)。

对于回归问题,最简单的方法便是使用多项式进行数据拟合,而对于分类问题来说,由于Y为0或1,所以不能使用普通的回归算法来进行拟合计算,但logistic回归的原理却类似回归问题,只是做了一点改进,首先需要理解决策边界的概念。

二、决策边界

116200a5bcf9d4e555d66edf1b46030a.png

如上图,我们需要区分蓝色的数据与红色的数据,他们分别有age与Tumor Size两个特征,最好的分类就是寻找到如黑线所示的决策边界,是他们能最大概率分类开,而决策边界我们一班采用多项式进行表示,如上图的决策边界可采用

equation?tex=%5Ctheta%5E%7BT%7D+x%3D+%5Ctheta_%7B0%7D%2B%5Ctheta_%7B0%7Dx_%7B1%7D%2B%5Ctheta_%7B2%7Dx_%7B2%7D

来表示,

equation?tex=x_%7B1%7D
equation?tex=x_%7B2%7D 是数据的特征。

所以,我们现在需要确定

equation?tex=%5Ctheta 值,同时我们需要确定一个标准,什么意思?可能你觉得可以直接使用回归的算法或用最小二乘可求出
equation?tex=%5Ctheta,但是这样代入求得的
equation?tex=%5Ctheta%5E%7BT%7D+x 会远大于1或远小于0,并不知道该分类为0还是1,所以我们需要引入一个标准,可以使计算出的值分类为0或1,这里需要引入sigmiod函数。

三、sigmoid函数

sigmoid函数是一个在(0,1)区间的一个函数,他的图像如下:

103d111d5345c7b8e9d7dc01c3b7a1a3.png

可以看到,当自变量趋于无穷时,函数值

equation?tex=h_%7B%5Ctheta%7D%28x%29 趋于1,趋于负无穷时函数值
equation?tex=h_%7B%5Ctheta%7D%28x%29趋于0,同时,自变量大于0时,函数值
equation?tex=h_%7B%5Ctheta%7D%28x%29大于0.5,小于0时,函数值小于0.5,其
代表了一种概率的含义

所以,我们使

equation?tex=%5Ctheta%5E%7BT%7D+x 作为sigmoid的自变量进行计算,可以得到下面的关系:

equation?tex=h_%7B%5Ctheta%7D%28x%29+%5Cgeq+0.5+%2C+y+%3D+1%2C+%5Ctheta%5E%7BT%7Dx+%5Cgeq+0

equation?tex=h_%7B%5Ctheta%7D%28x%29+%3C+0.5+%2C+y+%3D+0%2C+%5Ctheta%5E%7BT%7Dx+%5Cleq+0

这样就找到一个(2)中所说的"标准"。因此,我们若求得

equation?tex=%5Ctheta 值,则可以求得
equation?tex=h_%7B%5Ctheta%7D%28x%29值,从而进行分类。所以求参数值,需要构造代价函数。

四、 代价函数

我们可以仿造线性回归的思路构造如下代价函数进行梯度下降法计算:

equation?tex=J%28%5Ctheta%29+%3D+%5CSigma%5Cfrac%7B1%7D%7B2%7D%28h_%7B%5Ctheta%7D-y%29%5E2

但是,这样构造的代价函数不是凸函数,梯度下降法解得的最优值可能为局部最优,无法求得最优的参数值,所以我们采用极大似然推导出代价函数,注意,有的文章直接给出了代价函数的结论未做推导容易对读者造成疑惑,以下是推导过程:

(3)中我们有说可以将

equation?tex=h_%7B%5Ctheta%7D%28x%29值作为概率,所以推导过程都是基于:

equation?tex=P%28y%3D1%7Cx%2C%5Ctheta%29%3Dh_%5Ctheta

equation?tex=P%28y%3D0%7Cx%2C%5Ctheta%29%3D1-h_%5Ctheta

上式可写成一般形式:

equation?tex=P%28y%7Cx%2C%5Ctheta%29%3Dh_%5Ctheta%5Ey%2B%281-h_%5Ctheta%29%5E%7B1-y%7D

(关于极大似然的原理,可参照这位大佬的文章:如何通俗地理解概率论中的「极大似然估计法」?),所以,他的极大似然函数为

equation?tex=L%28%5Ctheta%29+%3D+%5Cprod_%7Bi+%3D+1%7D%5E%7Bn%7D%28h_%7B%5Ctheta_i%7D%5E%7By_i%7D%2B%281-h_%7B%5Ctheta_i%7D%29%5E%7B1-y_i%7D%29 ,两边取对数同时加上一个负号得到代价函数(取负号是为了让代价函数最优值为最小而不是最大):

equation?tex=J%28%5Ctheta%29+%3D+-%5Csum_%7Bi%3D1%7D%5E%7Bn%7D%7B%28%7By_i%7Dln%28h_%7B%5Ctheta_i%7D%29%2B%28%7B1-y_i%7D%29ln%281-h_%7B%5Ctheta_i%7D%29%7D

于是,我们求解出了代价函数,即可用梯度下降法求解出参数

equation?tex=%5Ctheta ,进而进行分类计算

以上就是本人理解的logistic回归分析的分类问题,有什么问题还望指正~

五、文章参考

[1]吴恩达. 机器学习

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值