ESL4.1学习笔记(线性分类本质理解与导览)

4.1 导言

这是一篇有关《统计学习基础》,原书名The Elements of Statistical Learning的学习笔记,该书学习难度较高,有很棒的学者将其翻译成中文并放在自己的个人网站上,翻译质量非常高,本博客中有关翻译的内容都是出自该学者的网页,个人解读部分才是自己经过查阅资料和其他学者的学习笔记,结合个人理解总结成的原创内容。
有关ESL更多的学习笔记的markdown文件,可在作者GitHub上查看下载。

原文The Elements of Statistical Learning
翻译szcf-weiya
时间2018-08-21
解读Hytn Chen
更新2020-02-22

翻译原文

这章我们重新回到分类问题,并且集中讨论分类的线性方法.因为我们的预测变量 G ( x ) G(x) G(x) 是在离散集 G \mathcal G G 中取值,所以我们总是可以根据类别把输入空间分成一些区域的集合.在第 2 章我们看到这些区域的边界会随着预测函数的不同而变得粗糙或者光滑.这个过程的一个很重要的类是 线性判别边界 (decision boundaries);这也是我们说的分类的线性方法.

可以通过许多不同的方式找到线性判别边界.在第二章中,我们根据类别指示变量拟合线性回归模型,并将观测点分到拟合值最大的类别.假设有 K K K 个类别,为了方便记为 1 , 2 , … , K 1,2,\ldots,K 1,2,,K,第 k k k 个响应的指示变量拟合的线性模型为 f ^ k ( x ) = β ^ k 0 + β ^ k T x \hat f_k(x)=\hat\beta_{k0}+\hat\beta_k^Tx f^k(x)=β^k0+β^kTx k k k 类和第 l l l 类的判别边界是满足 f ^ k ( x ) = f ^ ℓ ( x ) \hat f_k(x)=\hat f_\ell(x) f^k(x)=f^(x) 的点的集合,也就是集合 x : ( β ^ k 0 − β ^ ℓ 0 ) + ( β ^ k − β ^ ℓ ) T x = 0 \\{x:(\hat\beta_{k0}-\hat\beta_{\ell 0})+(\hat\beta_k-\hat\beta_\ell)^Tx=0\\} x:(β^k0β^0)+(β^kβ^)Tx=0,这是一个仿射集或者超平面

!!! note “weiya 注:作者脚注”
严格来说,超平面需要通过原点,而仿射集不需要.我们有时忽略它们之间的区别并且一般称超平面.

因为对于任意两个类别这也成立,输入空间被分块超平面判别边界分成了若干个类别区域.回归方法对每个类别建立 判别函数 (discriminant functions) δ k ( x ) \delta_k(x) δk(x),然后将 x x x 分到取最大值的判别函数所在类别中.建立后验概率 Pr ⁡ ( G = k ∣ X = x ) \Pr(G=k\mid X=x) Pr(G=kX=x) 也是属于这种类别.说的更清楚点,只要 δ k ( x ) \delta_k(x) δk(x) 或者 Pr ⁡ ( G = k ∣ X = x ) \Pr(G=k\mid X=x) Pr(G=kX=x) 关于 x x x 是线性的,则判别边界将也是线性的.

实际上,我们仅要求 δ k \delta_k δk 或者 Pr ⁡ ( G = k ∣ X = x ) \Pr(G=k\mid X=x) Pr(G=kX=x) 的单调变换关于判别边界要是线性的.举个例子,如果这里有两个类,一个关于后验概率很流行的模型是

Pr ⁡ ( G = 1 ∣ X = x ) = exp ⁡ ( β 0 + β T x ) 1 + exp ⁡ ( β 0 + β T x ) Pr ⁡ ( G = 2 ∣ X = x ) = 1 1 + exp ⁡ ( β 0 + β T x ) (4.1) \begin{aligned} \Pr(G=1\mid X=x)&=\dfrac{\exp(\beta_0+\beta^Tx)}{1+\exp(\beta_0+\beta^Tx)} \\ \Pr(G=2\mid X=x)&=\dfrac{1}{1+\exp(\beta_0+\beta^Tx)} \end{aligned} \qquad \tag{4.1} Pr(G=1X=x)Pr(G=2X=x)=1+exp(β0+βTx)exp(β0+βTx)=1+exp(β0+βTx)1(4.1)

这里单调变换是 logit 变换 log ⁡ [ p / ( 1 − p ) ] \log[p/(1-p)] log[p/(1p)],事实上我们看到

log ⁡ Pr ⁡ ( G = 1 ∣ X = x ) Pr ⁡ ( G = 2 ∣ X = x ) = β 0 + β T x (4.2) \log\dfrac{\Pr(G=1\mid X=x)}{\Pr(G=2\mid X=x)}=\beta_0+\beta^Tx\qquad\tag{4.2} logPr(G=2X=x)Pr(G=1X=x)=β0+βTx(4.2)

判别边界是 log-odds 等于 0 0 0 的点的集合,这是由 x ∣ β 0 + β T x = 0 \\{x\mid\beta_0+\beta^Tx=0\\} xβ0+βTx=0 定义的超平面.我们讨论两种非常流行但是不同的方法,最后都得到线性的 log-odds 或者 logits:线性判别分析和线性 logistic 回归.尽管它们的推导不相同,但是他们关键的区别在于用线性函数拟合训练数据的方式.

一种更直接的方式是在类别之间显性地建立线性边界.对于在 p p p 维输入空间的两个类别的问题,这意味着将判别边界建模为超平面——换句话说,一个 法向量 (normal vector) 和一个 分隔点 (cut-point).我们将看到两种方法都是显式寻找“分隔超平面”.第一个是著名的 Rosenblatt (1958)1感知器 (perception) 模型,以及一个从训练数据中寻找分离超平面的算法(如果存在超平面的话).第二个方法要归功于 Vapnik(1996)2,如果超平面存在的话寻找一个最优分离超平面,不存在的话则寻找一个超平面使得训练数据中的重叠最小.我们这里处理可分的情形,不可分的情形将推到第 12 章讨论.

尽管整个章节都在谈论线性判别边界,但对于一般情形还有相当大的讨论余地.

!!! note “weiya 注:翻译”
此处原文为,“While this entire chapter is devoted to linear decision boundaries, there is considerable scope for generalization.”

举个例子,我们可以对变量集 X 1 , X 2 , … , X p X_1,X_2,\ldots,X_p X1,X2,,Xp 加上他们的交叉积 X 1 2 , X 2 2 , … , X 1 X 2 , … , X_1^2,X_2^2,\ldots,X_1X_2,\ldots, X12,X22,,X1X2,, (因此加入了 p ( p + 1 ) / 2 p(p+1)/2 p(p+1)/2 个额外的变量)进行推广.当增广空间的线性函数投影到原空间的二次函数,则线性判别边界转换为二次判别边界.图 4.1 解释了这个想法.数据集是一样的,左边是在二维空间中用线性判别函数,而右图在增广的五维空间中用线性判别函数.这种方式可以跟任意基变换 h ( X ) h(X) h(X) 一起使用,其中 h : I R p → I R q , q > p h:\rm{IR}^p\rightarrow \rm{IR}^q,q > p h:IRpIRq,q>p,这将在后面章节中讨论。

在这里插入图片描述

图 4.1:左图显示了三个类别的一些数据,以及通过线性判别分析得到的线性判别边界.右图显示了二次判别边界.这是通过在五维空间 X 1 , X 2 , X 1 X 2 , X 1 2 , X 2 2 X_1,X_2,X_1X_2,X_1^2,X_2^2 X1,X2,X1X2,X12,X22 找到线性边界得到.这个空间里面的线性不等式是原空间的二次不等式.


  1. Rosenblatt, F. (1958). The perceptron: a probabilistic model for information storage and organization in the brain, Psychological Review 65: 386–408. ↩︎

  2. Vapnik, V. (1996). The Nature of Statistical Learning Theory, Springer, New York. ↩︎

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值