GLM(广义线性模型) 与 LR(逻辑回归) 详解

GLM 广义线性模型

George Box said: “All models are wrong, some are useful”

1. 始于 Linear Model

作为 GLM 的基础,本节 review 经典的 Linear Regression,并阐述一些基础 term。
我们线性回归的基本如下述公式,本质上是想通过观察 x ,然后以一个简单的线性函数 h(x) 来预测 y

y=h(x)=wTx

1.1 dependent variable y

这是我们的预测目标,也称 response variable。这里有一个容易混淆的点,实际上 y 可以表达三种含义(建模用的是分布,观察到的是采样,预测的是期望):

  • distribution;抽象地讨论 response variable 时,我们实际上关注对于给定数据和参数时, y| x,w 服从的分布。Linear Regression 的 y 服从高斯分布,具体取值是实数,但这里我们关注的是分布。
  • observed outcome;我们的 label,有时用 t 区分表示;这是真正观察到的结果,只是一个值。
  • expected outcome; y=E[y|x]=h(x) 表示模型的预测;注意 y 实际上服从一个分布,但预测结果是整个分布的均值 μ,只是一个值。

1.2 independent variable x

这是我们的特征,可以包含很多维度,一个特征也称为一个 predictor。

1.3 hypothesis h(x)

线性模型的假设非常简单,即 h(x)=wTx inner product of weight vector and feature vector,被称为 linear predictor。这是就是线性模型,GLM 也是基与此的推广。
深入来看,各个维度特征(predictor) xj 通过系数 wj 线性加和,这一过程将信息进行了整合;而不同的 weight(coefficient) 反映了相关特征不同的贡献程度 。

2. 推广到 Generalized Linear Model

2.1 Motive & Definition

线性模型有着非常强的局限,即 response variable y 必须服从高斯分布;主要的局限是拟合目标 y 的 scale 是一个实数 (,+) 。具体来说有俩个问题:

  • y 的取值范围和一些常见问题不匹配。例如 count(游客人数统计恒为正)以及 binary(某个二分类问题)
  • y 的方差是常数 constant。有些问题上方差可能依赖 y 的均值,例如我预测目标值越大方也越大(预测越不精确)

所以这时我们使用 Generalized Linear Model 来克服这俩个问题。
一句话定义 GLM 即(from wiki):
In statistics, the generalized linear model (GLM) is a flexible generalization of ordinary linear regression that allows for response variables that have error distribution models other than a normal distribution.
详细来说,我们可以把 GLM 分解为 Random Component、System Component 和 Link Function 三个部分

2.2 Random Component

An exponential family model for the response

这里是指 response variable 必须服从某一 exponential family distribution 指数族分布,即 y|x,wExponentialFamily(η) η 指 exponential family 的 natural parameter 自然参数。
例如 linear regression 服从 Gaussian 高斯分布,logistic regression 服从 Bernoulli 伯努利分布。指数族还有很多分布如 多项分布、拉普拉斯分布、泊松分布等等。
另外,这也可以被称为 Error Structure : error distribution model for the response。对于 Gaussian 的 residual 残差 ϵ=yh(x) 服从高斯分布 N(0,σ) 是很直观可;但是,例如 Bernoulli 则没有直接的 error term。可以构造其他的 residual 服从 Binomial,但是较抽象,本文不对此角度展开。

2.3 Systematic Component

linear predictor

广义线性模型 GLM 本质上还是线性模型,我们推广的只是 response variable y 的分布,模型最终学习的目标还是 linear predictor wTx 中的 weight vector。
注意,GLM 的一个较强的假设是 η=wTx ,即 y 相关的 exponential family 的 natural parameter η 等于 linear predictor。这个假设倾向于是一种 design choice(from Andrew),不过这种 choice 是有合理性的,至少 η 和 linear predictor 的 scale 是一致的。

A link function connects the mean of the response to the linear predictor

通过上述的 Random Component 和 Systematic Component,我们已经把 y wTx 统一到了 exponential family distribution 中,最终的一步就是通过 link function 建立俩者联系。对任意 exponential family distribution,都存在 link function g(μ)=η μ 是 分布的均值 而 η 是 natural parameter;例如 Gaussian 的 link function 是 identity( g(μ)=η ),Bernoulli 的 link function 是 logit( g(μ)=lnμ1μ=η )。
link function 建立了response variable 分布均值(实际就是我们的预测目标) 和 linear predictor 的关系(准确来说,这只在 T(y)=y 条件下成立,但大多数情况都条件都成立,这里不展开说明)。实际上 link function 把原始 y 的 scale 转换统一到了 linear predictor 的 scale 上。另外,不同分布的 link function 可以通过原始分布公式变换到指数组分布形式来直接推出,之后本文第4章会有详细讲解。
最后要强调的是,link function 的反函数 g1(η)=μ 称为 响应函数 response function。响应函数 把 linear predictor 直接映射到了预测目标 y ,较常用的响应函数例如 logistic/sigmoid、softmax(都是 logit 的反函数)。

2.5 Contrast between LM & GLM

  • linear predictor η=wTx

Linear Regression
  • response variable yN(η,σ2e)
  • link function η=g(μ)=μ , called identity
  • prediction h(x)=E[y|x,w]=μ=g1(η)=μ
Generalized Linear Model
  • response variable yexponential family
  • link function g(μ) , eg. logit for Bernoulli
  • prediction h(x)=E[y|x,w]=μ=g1(η) , eg.logistic for Bernoulli

这里再次强调了他们 linear predictor 的部分是一致的;不过对 response variable 服从分布的假设不一致。Gaussian 的 response function 是 g1(η)=μ ;而 exponential family 根据具体假设的分布,使用相应的 response function (例如 Bernoulli 是 sigmoid)。

额外强调一个点,无论是 LM 还是 GLM,我们对不同数据 x 得到的其实是不同的 response variable 的分布,所以不同分布的 μ 值不同,进而我们预测的结果不同。虽然每一条数据只是预测了一个值,但其实对应的是一个分布。并且数据相似的话对应的分布也相似,那么预测结果也相似。

3. 实例:Linear Regression 到 Logistic Regression

GLM 中我们最常用到的是 Logistic Regression;即假设 y 服从 Bernoulli 伯努利分布,这里详细展开阐述。

3.1 以 GLM 来看 Logistic Regression

以下直接列出相关的 GLM 概念对 LR 的解释:

  • An exponential family (random component) yiBern(μi)

    • linearl predictor (system component): ηi=Jjwjxij ,这个部分 GLM 都有且都一致
    • link function: η=g(μ)=lnμ1μ ,这个函数是 log-odds,又称 logit 函数
    • response function: μ=g1(η)=11+eη ,称为 logistic 或 sigmoid
    • prediction: h(xi)=E[yi|w,xi]=sigmoid(ηi)
    • loss function : E=ylnh(x)(1y)ln(1h(x)) , 和 Linear Model 一样由 MLE 推导得到,3.3 中会给出详细推导过程
      • binary outcome:0 or 1,对应 observed outcome 即 label
      • probability: [0,1] ,对应 expected outcome,即 y 的分布的 μ
      • odds: (0,) ,概率和几率可相互转换( oa=pa1pa, pa=oa1+oa );即是发生概率与不发生概率的比,赌博中常见这一概念,和赔率相关
      • log-odds/logit: (,+) ,即 logpa1pa

      所以 log-odds 在 scale 上和 linear predictor 匹配。对于 Logistic Regression,我们通过 link function logit 建立了与简单线性模型的关联。link function 就是把任意 exponential family distribution 的均值 μ 映射到线性尺度上:

      η=g(μ)=lnμ1μη=lnE[yi|w,xi]1E[yi|w,xi]=wTxi=jJwjxij

      即是,在 Logistic Regression 模型中,输出 y=1 的 log-odds 对数几率是关于输入 x 的线性函数。

      3.2 Logistic/Sigmoid 函数

      此函数是 Bernoulli 在 GLM 的 response function,即 link function 的反函数。(强调反函数的时候可以使用 g1(x) 标识;当然直接使用 g(x) 也没问题,Andrew 课上使用的是后者)
      此函数在神经网络中也有用作 activate function 来引入非线性(当然现在更常用 rectified linear unit, RELU),其拥有一些特点:

      • bounded 有界的,取值 (0,1) ,有概率意义
      • monotonic 单调递增函数
      • differentiable 可微,且求导简单
      • 函数呈 S 曲线,中央区域敏感,两侧抑制(有俩个优点:首先是符合神经激活原理;其次是现实问题会有类似的非线性关系,当自变量很大或很小时对因变量影响很小,但是在某个阈值范围上时影响很大)

      这里展开证明一下求导简单,即 g(z)=g(z)(1g(z))

      sigmoid=g(z)g(z)=11+ez=(ez1)(1+ez)2=ez(1+ez)2=(1+ez)1(1+ez)2=11+ez1(1+ez)2=g(z)g(z)2=g(z)(1g(z))

      另外,这里先证明一个有趣的特性 g(z)=1g(z) (为后续章节证明流程铺垫~)

      1g(z)=111+ez=ez1+ez=11+ez=g(z)

      logistic/sigmoid 函数还有一些其他的解释,例如生态学模型。

      3.3 LR 的 loss function

      3.3.1 标准套路

      本节详细完成 logistic regression 剩下部分的阐述。假设我们观察到了数据集 (xi,ti) 包含 N 个样本,xi 表示某一样本的特征向量, ti=0 or 1 表示这一样本的真实类别(observed outcome)。另外定义 yi=h(xi) 为模型的输出结果(expected outcome)。我们假设 ti 服从 Bernoulli 伯努利分布( Bern(x|μ)=μx(1μ)1x ),则可以写出似然函数如下:

      L(D|w)=p(t|w)=i=1Nytii(1yi)1ti=i=1Nh(xi)ti(1h(xi))1ti

      对似然函数取对数化简如下:
      l=lnp(t|w)=i=1N{tilnh(xi)+(1ti)ln(1h(xi))}

      所以 loss fucntion 可以写为(最大化似然 转 最小化cost):
      J=l=i=1N{tilnh(xi)(1ti)ln(1h(xi))}
      这是基于 binomial 二项分布推导出来的 loss,所以又被称为 negative binomial log-likelihood

      其中 h(x) 依照 GLM 理论,依据 response function 展开为:

      h(x)=g1(wTx)=11+ewTx

      为 loss function J 带入 h(xi) 对 weight vector w 求导(注意 Chain Rule):
       Ji w= Ji h(xi) h(xi) w=(ti1h(xi)(1ti)11h(xi)(1))(h(xi)(1h(xi))xi)=ti1h(xi)h(xi)(1h(xi))xi+(1ti)11h(xi)h(xi)(1h(xi))xi=ti(1h(xi))xi+(1ti)h(xi)xi=tixi+tih(xi)xi+h(xi)xitih(xi)xi=(h(xi)ti)xi

      所以 Logistic Regression 与 Linear Regression 更新公式(Batch Gradient Descent)是类似的,唯一不同点在于不同的 response function h(x)
      wnew=wλ J w=wλi=1N(h(xi)ti)xi=wλi=1N(yiti)xi

      3.3.2 其他套路

      这里专门强调一下,有一些论文里面会使用其他形式的等价的 negative binomial log-likelihood:

      J=i=1Nln(1+exp{tizi})

      这个形式要简洁很多,但实际和上小节中 loss function J=Ni=1{tilnh(xi)(1ti)ln(1h(xi))} 完全等价的,唯一的区别是:这里使用的 label ti=1/+1 而非上一小节的 ti=0/1 。这种表达有一个好处, zi 是 linear predictor,上小节有 zi=wTxi ,但是这里更 general,可以用其他方式定义来定义这个 linear predictor,例如 GBDT 中的函数加和,其实这个 loss 就是从 GBDT 论文上看到的~以下将证明这一套路与标准讨论等价:

      首先,把原 loss 展开 h(xi)=g1(wTxi)=g(zi) (把 inverse 符号去掉了,这里不需要再强调了),且根据 sigmoid 的 g(z)=1g(z) ,有:

      J=i=1N{tilnh(xi)(1ti)ln(1h(xi))}=i=1N{tiln(g(zi))(1ti)ln(g(zi))}

      对 label ti 分情况展开:
      Ji={ln(g(zi))ln(g(zi))if ti=1if ti=0

      切换到 ti=1/+1 (这是唯一的不同哦):
      Ji={ln(g(tizi))ln(g(tizi))if ti=+1if ti=1

      显然可以对原 loss 整合并展开为:
      J=i=1N{ln(g(tizi))}=i=1N{ln(11+exp{tizi})}=i=1N{ln(1+exp{tizi})}
      证毕。

      loss 的 gradient 当然也是完全等价的,这里简单展开部分结果:

      Jiz=11+exp{tizi}exp{tizi}(ti)=ti1+exp{tizi}

      4. Exponential Family

      这里补充一下 exponential family 的定义,并且给出 Bernoulli 以及 Categorical 对应的 link function 和 response function。

      4.1 Definition

      The exponential family of distribution over x given η is ( h,g,u 都是确定的函数,基于 η x 确定的,所以这是只以 η 为参数的分布):

      p(x|η)=h(x)g(η)exp{ηTu(x)}

      • η natural parameter 自然参数,这是决定分布的具体参数
      • u(x) sufficient statistics 充分统计量,通常有 u(x)=x
      • g(η) 是分布正规化系数 coefficient,即确保概率和为1,满足 g(η)h(x)exp{ηTu(x)}dx=1

      常见的 exponential family 有 Bernoulli Distribution, Binomial Poisson Distribution, Negative Binomial Distribution, Categorical Distribution, Multinomial Distribution, Beta Distribution, Dirichlet Distribution, Laplace Distribution, Gamma Distribution, Normal Distribution 等等,所以说 GLM 极大地拓展了 LM 的使用范围。

      4.2 Bernoulli Distribution

      伯努利分布 的 分布律(相对于 continuous variable 的 概率密度函数) 如下:

      p(x|μ)=Bern(x|μ)=μx(1μ)1x

      我们将其变换到标准 exponential family 形式:
      p(x|μ)=exp{ln{μx(1μ)1x}}=exp{xlnμ+(1x)ln(1μ)}=exp{xlnμxln(1μ)+ln(1μ)}=(1μ)exp{xlnμ1μ}

      得到 natural parameter,也正是 GLM 使用的 link function,logit:
      η=lnμ1μ

      这里推导一下其 inverse function,即 GLM 使用的 response function:
      eη=exp{lnμ1μ}=1μμ1+eη=1+1μμ=1μ11+eη=μ

      这也就是 logistic/sigmoid 函数。剩余其他部分:
      u(x)=x, h(x)=1,g(η)=sigmoid(η)=11+eη=11+μ1μ=(1μ)

      4.3 Categorical Distribution

      作为 Bernoulli 的推广,Categorical 的 link function 和 response function 与前者非常相似。其 response function 是 softmax,所以 logistic/sigmoid 和 softmax 也是一个推广关系。

      这里注意一点,Categorical Distribution 即是单次的 Multiple Distribution,后者更常见。(而 Bernoulli Distribution 是单次的 Binomial Distribution)

      以下介绍推导过程,分类分布的 分布律,以及 exponential family 形式如下:

      p(x|μ)=k=1Mμxkk=exp{k=1Mxklnμk}

      上述表达缺少了一个约束: k=1Mμk=1 , 通常会改写分布形式来消除这个约束,即我们只确认 M1 μk ,剩下 1 个 μk 是一个确定的值。当然,我们其实还会有隐含的约束 0μk1 k=1M1μk1 ,这个 Bernoulli 也有。
      下面是包含约束的改写过程:
      exp{k=1Mxklnμk}=exp{k=1M1xklnμk+(1k=1M1xk)ln(1k=1M1μk)}=exp{k=1M1xklnμkk=1M1xkln(1k=1M1μk)+ln(1k=1M1μk)}=exp{k=1M1xklnμk1M1k=1μk+ln(1k=1M1μk)}=(1k=1M1μk)exp{k=1M1xklnμk1M1k=1μk}

      所以 natural parameter 正是:

      ηk=lnμk1M1j=1μj

      这里的 η 是一个向量,比 Bernoulli 要复杂,因为需要考虑 M 个不同分类。上述公式中的分母其实就是 M1 以外的那一个分类的概率 μk=M ,所以其实也有点 odds 的意思;这里可以理解为我们随意选择了一个分类作为base,然后用其他分类出现的概率对其求对数比例,把可能性的取值范围扩展到了 (,+) 作为被选择作base的分类,其 ηk=M=ln1=0

      下面推导其 inverse function 即 GLM 使用的 response function,这个过程比 logistic 要复杂很多。首先等价变换 link function:

      lnμk1M1j=1μj=ηkμk1M1j=1μj=exp{ηk}

      接下来,对上式 left side 累加 M 个分类的值:
      left=k=1Mμk1M1j=1μj=11M1j=1μjk=1Mμk=11M1j=1μj

      对 right side 累加 M 个分类的值:
      right=k=1Mexp{ηk}=exp{ηk=M}+j=1M1exp{ηj}=1+j=1M1exp{ηj}

      俩个式子结合则有:

      11M1j=1μj=1+j=1M1exp{ηj}

      重新代入 link function 则有:
      ηk=lnμk1M1j=1μj=lnμk(1+j=1M1exp{ηj})exp{ηk}=μk(1+j=1M1exp{ηj})μk=exp{ηk}1+M1j=1exp{ηj}

      这里对于特殊的 μk=M=exp{ηk=M}1+M1j=1exp{ηj}=11+M1j=1exp{ηj} ,所以对任意分类上式都是成立的。
      最终,softmax 的形式为
      μk=exp{ηk}1+M1j=1exp{ηj}

      也可以等价地写作
      μk=exp{ηk}Mj=1exp{ηj}

      这个结果近似于 logistic/sigmoid 的:
      μ=11+exp{η}=exp{η}1+exp{η}

      且 logistic/sigmoid 中第二种可能的概率为:
      1μ=1exp{η}1+exp{η}=11+exp{η}

      可见 logistic/sigmoid 只是 softmax 在 M=2 时的特殊形式。

  • 81
    点赞
  • 299
    收藏
    觉得还不错? 一键收藏
  • 7
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值