一天一个机器学习小知识——逻辑回归


前言

前面几小节介绍的线性回归、Lasso、Ridge以及弹性网都是回归模型,但是现实生活中还是会有很多分类问题,因此本文就介绍一个机器学习中最常见的分类模型——逻辑回归。逻辑回归是最经典的分类模型之一,一方面,它保持了线性回归的可解释性,从参数的大小可以知道每个特征对结果的影响程度;另一方面,它的输出具有概率意义,可以为很多决策提供参考。

一、算法推导

李航老师的《统计学习方法》中提到,统计学习方法都是由模型策略算法构成的,因此本文在算法推导也主要从这三部分进行展开讨论。

1.模型

虽然逻辑回归带有“回归”二字,但其实是一个分类模型,不过既然它这么起名字,说明肯定跟线性回归有很大的关系。其实逻辑回归只不过是将线性回归的输出结果进行压缩转换,本质上还是一个线性模型。我们知道普通的线性回归如下所示:
z = f ( x ) = w 0 T x + b = w T x z=f(x) = w_{0}^Tx + b=w^Tx z=f(x)=w0Tx+b=wTx
它的输出范围是 ( − ∞ , + ∞ ) (-\infty, +\infty) (,+),不符合分类问题的输出格式,因此我们需要对这个结果进行压缩,也就是做一个映射,而sigmoid函数是最常用的映射函数。
y = s i g m o i d ( z ) = 1 1 + e − z = 1 1 + e − w T x y=sigmoid(z) =\frac{1}{1+e^{-z}} =\frac{1}{1+e^{-\boldsymbol{w}^{T} \boldsymbol{x}}} y=sigmoid(z)=1+ez1=1+ewTx1
在这里插入图片描述
通过sigmoid函数,将线性回归的输出从 ( − ∞ , + ∞ ) (-\infty, +\infty) (,+)映射至 ( 0 , 1 ) (0,1) (0,1),这个结果可以看成是输出为类别1的概率。如果y>0.5(这里0.5可以改成其他值),说明结果为类别1的概率超过50%,那么将结果判定为类别1,否则判定为类别0。

2.策略

由于经过sigmoid函数的转换,按照线性回归那样直接以均方误差作为损失函数对于逻辑回归不再适用。既然上面提到逻辑回归的输出具有概率意义,所以我们可以尝试从概率的角度推导出逻辑回归的损失函数。
y = s i g m o i d ( z ) = 1 1 + e − z = 1 1 + e − w T x y=sigmoid(z) =\frac{1}{1+e^{-z}} =\frac{1}{1+e^{-\boldsymbol{w}^{T} \boldsymbol{x}}} y=sigmoid(z)=1+ez1=1+ewTx1
输出的是正类的概率,不妨令其为 p p p,那么预测为负类的概率为 1 − p 1-p 1p,

P ( y ∣ x ) = { p , y = 1 1 − p , y = 0 可 以 合 并 成 : P ( y i ∣ x i ) = p y i ( 1 − p ) 1 − y i \begin{aligned} &P(y | \boldsymbol{x})=\left\{\begin{aligned} p, y &=1 \\ 1-p, y &=0 \end{aligned}\right.\\ &\\&可以合并成: P\left(y_{i} | \boldsymbol{x}_{i}\right)=p^{y_{i}}(1-p)^{1-y_{i}} \end{aligned} P(yx)={p,y1p,y=1=0P(yixi)=pyi(1p)1yi
其中 P ( y i ∣ x i ) P(y_{i}|x_{i}) P(yixi)是事件(样本) i i i 发生的概率,当 y i = 1 y_{i}=1 yi=1时, P ( y i ∣ x i ) = p i P(y_{i}|x_{i})=p_{i} P(yixi)=pi刚好等于正类发生的概率, y i = 0 y_{i}=0 yi=0时, P ( y i ∣ x i ) = 1 − p i P(y_{i}|x_{i})=1-p_{i} P(yixi)=1pi刚好等于负类发生的概率。整个事件一共有N的样本,那么整个事件的发生概率为(似然函数):
L ( w ) = P 总 = P ( y 1 ∣ x 1 ) P ( y 2 ∣ x 2 ) P ( y 3 ∣ x 3 ) … P ( y N ∣ x N ) = ∏ n = 1 N p y n ( 1 − p ) 1 − y n \begin{aligned} L(w)=P_{总} &=P\left(y_{1} | \boldsymbol{x}_{1}\right) P\left(y_{2} | \boldsymbol{x}_{2}\right) P\left(y_{3} | \boldsymbol{x}_{3}\right) \dots P\left(y_{N} | \boldsymbol{x}_{N}\right) \\ &=\prod_{n=1}^{N} p^{y_{n}}(1-p)^{1-y_{n}} \end{aligned} L(w)=P=P(y1x1)P(y2x2)P(y3x3)P(yNxN)=n=1Npyn(1p)1yn我们应该选择一个参数 w w w,使得事件出现的概率最大,即可以通过最大化上面的似然函数来求得 w w w的最优解。但是似然函数涉及连乘,直接计算会出现“下溢”,并且不好求最小值。因此可以对似然函数做一个线性转换,转换后并不会改变其最优解,比如说取对数,得到对数似然:
l n ( L ( w ) ) = ln ⁡ ( P ξ 1 ) = ln ⁡ ( ∏ n = 1 N p n y n ( 1 − p n ) 1 − y n ) = ∑ n = 1 N ln ⁡ ( p n y n ( 1 − p n ) 1 − y n ) = ∑ n = 1 N ( y n ln ⁡ ( p n ) + ( 1 − y n ) ln ⁡ ( 1 − p n ) ) \begin{aligned} ln(L(w))=\ln \left(P_{\xi_{1}}\right) &=\ln \left(\prod_{n=1}^{N} p_{n}^{y_{n}}(1-p_{n})^{1-y_{n}}\right) \\ &=\sum_{n=1}^{N} \ln \left(p_{n}^{y_{n}}(1-p_{n})^{1-y_{n}}\right) \\ &=\sum_{n=1}^{N}\left(y_{n} \ln (p_{n})+\left(1-y_{n}\right) \ln (1-p_{n})\right) \end{aligned} ln(L(w))=ln(Pξ1)=ln(n=1Npnyn(1pn)1yn)=n=1Nln(pnyn(1pn)1yn)=n=1N(ynln(pn)+(1yn)ln(1pn))其中 y n y_{n} yn是已知的,而 p n p_{n} pn则与参数 w w w有关,只需要使用梯度下降法求 l n ( L ( w ) ) ln(L(w)) ln(L(w))最大的时候对应的 w w w即为最优 w ∗ w^* w
但是到这里还没有结束,因为我们其实想求的是损失函数,然后最小化损失函数得到最优参数解,而目前推导出来的是似然函数。事实上,最大似然和最小损失是对应的,我们只需要在对数似然前面加上一个负号,就可以转化为求最小值问题。即损失函数可以写成
J ( w ) = − ∑ n = 1 N ( y n ln ⁡ ( p n ) + ( 1 − y n ) ln ⁡ ( 1 − p n ) ) J(w)=-\sum_{n=1}^{N}\left(y_{n} \ln (p_{n})+\left(1-y_{n}\right) \ln (1-p_{n})\right) J(w)=n=1N(ynln(pn)+(1yn)ln(1pn))你可以把它看作是交叉熵(cross-entropy)(其实不完全等价于交叉熵,除非 y i y_{i} yi对应的是真实分布),但是为了理解直观理解,你可以先把他看成是交叉熵。交叉熵是分类中最常用的损失函数,没有之一。
因此最大化似然函数的问题就可以转变为我们所熟悉的最小化损失函数的问题
w ∗ = a r g m i n ( J ( w ) ) = a r g m i n ( − ∑ n = 1 N ( y n ln ⁡ ( p n ) + ( 1 − y n ) ln ⁡ ( 1 − p n ) ) ) w^*=argmin( J(w))=argmin(-\sum_{n=1}^{N}\left(y_{n} \ln (p_{n})+\left(1-y_{n}\right) \ln (1-p_{n})\right)) w=argmin(J(w))=argmin(n=1N(ynln(pn)+(1yn)ln(1pn)))

3.算法

算法部分就是通过最小化 J ( w ) J(w) J(w)来求出参数 w w w。这里采用的梯度下降法。其实前面几个小节也提到过梯度下降法,但是一直没有对它的原理进行一个详细的说明,所以本小节将对这个优化算法进行深入的讨论。
梯度下降法是一个迭代算法, 通过不断的朝着负梯度更新参数,最终使得 J ( w ) J(w) J(w)达到最小值。这里有个关键点:为什么一定要朝着负梯度更新参数?其实是因为负梯度方向是下降最快的方法。下面通过图形和简单公式推导来证明这个假设。
(1)图形理解
在这里插入图片描述
引用网友的一段话“首先来看看梯度下降的一个直观的解释。比如我们在一座大山上的某处位置,由于我们不知道怎么下山,于是决定走一步算一步,也就是在每走到一个位置的时候,求解当前位置的梯度,沿着梯度的负方向,也就是当前最陡峭的位置向下走一步,然后继续求解当前位置梯度,向这一步所在位置沿着最陡峭最易下山的位置走一步。这样一步步的走下去,一直走到觉得我们已经到了山脚。当然这样走下去,有可能我们不能走到山脚,而是到了某一个局部的山峰低处。从上面的解释可以看出,梯度下降不一定能够找到全局的最优解,有可能是一个局部最优解。当然,如果损失函数是凸函数,梯度下降法得到的解就一定是全局最优解。”
(2)公式简单推导
我这里使用公式来对负梯度下降最快这一说法进行简单推导,不一定很严谨。我们对 J ( w ) J(w) J(w)进行泰勒展开 J ( w i + 1 ) = J ( w i ) + J ′ ( w i ) ( w i + 1 − w i ) + o ( w i + 1 − w i ) J(w^{i+1}) = J(w^{i})+J^{'}(w^i)(w^{i+1}-w^{i})+o(w^{i+1}-w^{i}) J(wi+1)=J(wi)+J(wi)(wi+1wi)+o(wi+1wi) 在时刻 t = i + 1 t=i+1 t=i+1, w i w^{i} wi 是已知的,我们需要做的就是通过 w i w^{i} wi 来迭代求出 w i + 1 w^{i+1} wi+1 。对上式进行简单的移项,并省略掉余项 ( o ( w i + 1 − w i ) o(w^{i+1}-w^{i}) o(wi+1wi)) 。
J ( w i ) − J ( w i + 1 ) = − J ′ ( w i ) ( w i + 1 − w i ) J(w^{i}) - J(w^{i+1}) = -J^{'}(w^i)(w^{i+1}-w^{i}) J(wi)J(wi+1)=J(wi)(wi+1wi) 要使损失函数 J ( w ) J(w) J(w) 下降的最快,那么 J ( w i ) − J ( w i + 1 ) J(w^{i})-J(w^{i+1}) J(wi)J(wi+1) 达到最大,等价于 − J ′ ( w i ) ( w i + 1 − w i ) -J^{'}(w^i)(w^{i+1}-w^{i}) J(wi)(wi+1wi) 最大,即 J ′ ( w i ) ( w i + 1 − w i ) J^{'}(w^i)(w^{i+1}-w^{i}) J(wi)(wi+1wi) 最小。要知道 J ′ ( w i ) J^{'}(w^i) J(wi) ( w i + 1 − w i ) (w^{i+1}-w^{i}) (wi+1wi) 都是向量,都是有方向的,我们通过向量的乘法可以知道 J ′ ( w i ) ( w i + 1 − w i ) = ∣ J ′ ( w i ) ∣ ∗ ∣ ( w i + 1 − w i ) ∣ ∗ c o s θ J^{'}(w^i)(w^{i+1}-w^{i})= |J^{'}(w^i)|*|(w^{i+1}-w^{i})|*cos\theta J(wi)(wi+1wi)=J(wi)(wi+1wi)cosθ所以在 ∣ J ′ ( w i ) ∣ 和 ∣ ( w i + 1 − w i ) ∣ |J^{'}(w^i)|和|(w^{i+1}-w^{i})| J(wi)(wi+1wi) 固定的情况下,要使 J ′ ( w i ) ( w i + 1 − w i ) J^{'}(w^i)(w^{i+1}-w^{i}) J(wi)(wi+1wi) 最小, c o s θ cos\theta cosθ 必须等于-1,即 J ′ ( w i ) J^{'}(w^i) J(wi) ( w i + 1 − w i ) (w^{i+1}-w^{i}) (wi+1wi) 方向相反: ( w i + 1 − w i ) = − J ′ ( w i ) (w^{i+1}-w^{i})=-J^{'}(w^i) (wi+1wi)=J(wi) ,这就证明了沿着负梯度方向更新参数会使得 J ( w ) J(w) J(w) 下降最快。
所以 w i + 1 = w i − λ J ′ ( w i ) w^{i+1} = w^{i} - \lambda J^{'}(w^{i}) wi+1=wiλJ(wi) 这个就是梯度下降的最终公式。
下面对梯度下降法进行一个简单的模拟:

import numpy as np
import matplotlib.pyplot as plt
def f(x):
    return x**2 + 1

x = np.random.randint(low=-100,high=100,size=1000)
x.sort()
y = f(x)

def Gradient_descent(r):
    w_i = 10  # 初始值
    while True:
        w_i_1 = w_i - r * (2* w_i)  # 更新公式:w[i+1] = w[i] - r * f'(w[i])
        if abs(w_i_1-w_i)<= 0.001 or abs(f(w_i_1) - f(w_i)) <= 0.001:  # 停止条件
            break 
        w_i = w_i_1
    return w_i

w_ = Gradient_descent(0.1)
plt.plot(x,y)
plt.scatter(w_, f(w_),color='r',label='argmin(loss)')
plt.legend(loc=9)

在这里插入图片描述
对于这种简单的凸优化问题,梯度下降很快就能找到最优解。

二、应用场景

逻辑回归的应用大致分为三类
(1)用于分类:适合做很多分类算法的基础组件。比如说和LGB一起组成Stacking模型。
(2)用于预测:预测事件发生的概率。比如说预测一个客户的信用卡违约的概率。
(3)用于分析:某一因素对事件发生的影响分析。比如说在(2)的场景中,不仅分析了客户违约的概率,还可以通过模型的系数来确定哪个因素(特征)对违约的可能性影响最大。

三、代码实现

这里主要使用sklearn这个库来实现机器学习算法。

1.导入相关库

from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.model_selection import cross_val_score
from sklearn.datasets import load_breast_cancer
from sklearn.metrics import accuracy_score
import pandas as pd
import numpy as np

2.读取样例数据

data = load_breast_cancer() # 获取样例数据,这里的数据乳腺癌检测,y=0代表没有乳腺癌,y=1代表有
X = pd.DataFrame(data.data,columns=data.feature_names)
y = data.target

在这里插入图片描述

3.划分训练集和测试集

X_train, X_test, y_train, y_test =train_test_split(X,y,test_size=0.3,random_state=0)

4.建立模型

model = LogisticRegression().fit(X_train,y_train)
y_pred = model.predict(X_test)
最终模型参数

在这里插入图片描述

5.评估模型

由于是分类问题,所以我们可以直接使用准确率来评估模型

print('ACC:%.3f'%(accuracy_score(y_test,y_pred)))
ACC:0.953

其实上面用的方法是留出法,我们也可以使用交叉验证法来计算模型误差。这样就把划分训练集和测试集、建立模型以及评估模型这几步合并在一起。

acc = np.mean(cross_val_score(LogisticRegression(),X,y,cv=10,scoring='accuracy'))
print('ACC:%.3f'%(acc))
ACC:0.946

可以看到两者比较接近。

四、优缺点

1.优点

(1)输出具有概率意义
(2)参数代表每个特征对输出的影响,可解释性强
(3)可以增加惩罚项来解决过拟合和多重共线性问题

2.缺点

(1)容易欠拟合(精度不高),所以最好结合其他模型一起使用
(2)本质上还是一个线性分类器,不好处理非线性问题

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值