李宏毅2020机器学习04 - Classification

经过前面几节课的学习,我们了解了机器学习的基本概念、Regression、以及error的来源。而今天要处理的task是Classification。

Why do we need to classify

为什么我们需要解决分类问题?分类有什么意义?与我何干?

两个好处

  • 界定、分析、处理问题
  • 提高效益

举两个例子:

快速记忆:

「分类」本身就是一种「结构」,而人脑通过「结构」来理解和存储信息。我们知道,短时记忆的容量只有4个单位。那么,为什么有人能够同时记住更多的信息?能够思考更复杂、信息量更大的问题?

你能否在20秒内记忆下图中各种颜色的各种形状的物体分别有几个?

倘若不行,试着对其先进行「分类」,再进行「编码」:比如纵向分为橙色、绿色、蓝色,横向分为圆形、正方形、三角形,并记录个数。如果你选择从左到右,之上而下编码,那么结果就是140,013,320。

一开始可能会有些困难,熟悉之后你会发现,通过「分类」,你记忆的效率更高了。

人脸识别:当你拥有一个人脸的数据库时,你就能把每一个人作为一个类别,进行分类。可用于高铁站身份认证、手机支付、网上实名认证等,省下不少人力物力。

What is Classification

特征(用于分析适合处理什么样的task)

Regression:输入一个object x,输出一个scalar。

Classification:输入一个object x,输出一个class,表示object x属于哪一个class。

以宝可梦为例,已知宝可梦有18种类型,我们现在要做的是设计一个宝可梦种类的分类器;我们要找到一个function,这个function的input是某一个宝可梦,它的output是这只宝可梦属于18个类别中哪一类型。

How to do Classification

数字化

为了将宝可梦作为function的input,我们对宝可梦进行数字化,比如我们只考虑宝可梦的Total(数值总和)、HP(生命值)、Attack(攻击)、Defense(防御)、SP Atk(特攻)、SP Def(特防)、Speed(速度),那么我们输入的就是一个包含7个元素的vector。

以皮卡丘为例,我们可以用以上7种特性数值构成的vector来描述它。

用回归来做分类是否合适?

以二分类问题为例

Training:输入为class1的输出为1,输入为class2的输出为-1

Testing:输出趋近于1判定为class1;输出趋近于-1判定为class2 。

假设我们真的找到了一个model,就像下边左图一样,绿色的线表示 b + w 1 x 1 + w 2 x 2 = 0 b + w_1x_1 + w_2x_2 = 0 b+w1x1+w2x2=0,也就是class1和class2的分界线。这种情况下,输出值接近-1的宝可梦都集中在绿线的左上方;值接近1的宝可梦都集中在绿线右下方,这样的表现是不错的。

但是上述现象只在样本点比较集中地分布在输出为-1和1的时候才成立。

如果像下图右边所示,我们已经知道绿线为最好的那个model的分界线,它的左上角的值小于0;右下角的值大于0,越往右下方值越大。所以,如果要考虑右下角这些点的话,用绿线对应的model,它们做Regression的时候输出会是远大于1的,但是做Regression的时候,实际上已经给所有的点都打上了-1和1的标签(因为你想做的是分两个类),你会希望这些蓝色点在model中的输出越接近1(接近所谓的“真值”)越好,所以这些输出值远大于1的点,它对于绿线对于的model来说是error,是不好的。因此,这组样本点通过Regression训练出来的model会是紫色这条分界线对应的model。这对于Regression来说是合理的,因为相对于绿线,它减小了由右下角这些点所带来的error。但这对于Classification来说结果是不好的。

Regression的output是连续性质的数值,而Classification的输出是离散性质的点。我们很难找到一个Regression的function使得大部分样本点的输出都集中在某几个离散的点附近。

因此,Regression定义model好坏的方式,对Classification是不适用的。

注:下图为三维图像在二维平面上的投影,颜色代表y的大小。

另外,值得注意的是,如果是多元分类问题,还把class1的target当作1,class2的target当作2,class3的target当作3是不合适的。

因为当你这样做的时候,Regression就会认为class1和class2的关系是比较近的,而class1和class3的的关系是比较远的,但是实际上这种关系可能根本不存在。

理想方案

model

比较合适的方案是,我们定义一个函数g(x)。如果g(x) > 0,那么输出为class1,如果g(x) < 0,那么输出为class2。

这个方法保证了model的输出都是离散的表示class的数值。

注:这里的model只是作为一个例子,展示了一种比上面Regression更加合适的方法。在本节课,后续我们会使用的model是 P ( C 1 ∣ x ) = P ( x ∣ C 1 ) P ( C 1 ) P ( x ∣ C 1 ) P ( C 1 ) + P ( x ∣ C 2 ) P ( C 2 ) P\left(C_{1} \mid x\right)=\frac{P\left(x \mid C_{1}\right) P\left(C_{1}\right)}{P\left(x \mid C_{1}\right) P\left(C_{1}\right)+P\left(x \mid C_{2}\right) P\left(C_{2}\right)} P(C1x)=P(xC1)P(C1)+P(xC2)P(C2)P(xC1)P(C1),且 P ( C 1 ∣ x ) > 0.5 P\left(C_{1} \mid x\right)>0.5 P(C1x)>0.5时,输出为class1,反之输出class2 。通过Maximum Likelihood我们可以找到best function。若class1和class2共用协方差Σ,则 P ( C 1 ∣ x ) P\left(C_{1} \mid x\right) P(C1x)可以进一步简化为 σ ( z ) \sigma(z) σ(z)我们可以暂时不用想这么多,等学下节课Logistic Regression时再回来对比着理解。

Loss function

我们在这里把Loss function定义为 L ( f ) = ∑ n δ ( f ( x n ) ≠ y ^ n ) L(f)=\sum_{n} \delta\left(f\left(x^{n}\right) \neq \hat{y}^{n}\right) L(f)=nδ(f(xn)=y^n),即这个model在所有的training data上predict错误的次数,也就说分类错误的次数越少,这个function表现的越好。

Find the best function

由于Loss function无法微分,因此是无法用Gradient Descent去做的。我们可以选择用感知机或者支持向量机去做,但在这里先用另一个方法来做。

Solution:Generative model(生成模型)

概率论基本概念

贝叶斯公式: P ( B i ∣ A ) = P ( B i ) P ( A ∣ B i ) ∑ j = 1 n P ( B j ) P ( A ∣ B j ) P\left(B_{i} \mid A\right)=\frac{P\left(B_{i}\right) P\left(A \mid B_{i}\right)}{\sum_{j=1}^{n} P\left(B_{j}\right) P\left(A \mid B_{j}\right)} P(BiA)=j=1nP(Bj)P(ABj)P(Bi)P(ABi)

现在我们将问题简化一下,仅考虑二分类问题,那么此时的贝叶斯公式可以改为 P ( B i ∣ A ) = P ( B i ) P ( A ∣ B i ) P ( B 1 ) P ( A ∣ B 1 ) + P ( B 2 ) P ( A ∣ B 2 ) P\left(B_{i} \mid A\right)=\frac{P\left(B_{i}\right) P\left(A \mid B_{i}\right)}{ P\left(B_{1}\right) P\left(A \mid B_{1}\right)+P\left(B_{2}\right) P\left(A \mid B_{2}\right)} P(BiA)=P(B1)P(AB1)+P(B2)P(AB2)P(Bi)P(ABi).

假设我们现在拿到了一个已知种类的宝可梦x,想要知道这个宝可梦x属于class1还是class2 。

这就是一个贝叶斯的问题,「已知宝可梦x,求它属于class1的概率」就等于(class1自身发生的概率乘以class1里含有x的概率)除以(class1自身发生的概率乘以class1里含有x的概率加上class2自身发生的概率乘以class2里含有x的概率)。

贝叶斯公式 = 单条路径概率/所有路径概率

从class1取宝可梦的概率
从class1取宝可梦x的概率
从class2取宝可梦的概率
从class2取宝可梦x的概率
取宝可梦
class1
x
class2

因此,我们想要知道宝可梦x属于class1或是class2的概率,只需要知道4个值:

P(C1)、P(C2)、P(x|C1)、P(x|C2)

通过training data我们可以得到这4个值,进而求出P(x)。

这就是所谓的Generative Model(生成模型)。为什么叫它生成模型呢?因为有这个model的话,就可以拿它来生成x。如果你计算出了每一个x出现的概率,就可以用这个distribution来生成x,sample x出来。

Prior probability(先验概率)

P(C1)和P(C2)这两个值被称为Prior probability(先验概率)。

我们在ID < 400的宝可梦中取水系和普通系的作为训练集,剩下的作为测试集。

ps:为了更严谨,可以引入Validation。

现在用于训练的有79只水系宝可梦和61只普通系宝可梦。

因此:P(C1) = 79 / (79 + 61) = 0.56; P(C2) = 61 / (79 + 61) = 0.44

高斯分布

假设每个宝可梦都由一个包含7个数值的向量表示。但现在我们仅考虑「防御」和「特防」,且假设所有我们采样的代表宝可梦的点都服从高斯分布。

那么我们能否预测水系宝可梦是下图这只海龟的概率是多少呢?

要知道,这只海龟不在我们采样的点里( 因为我们取的是ID < 400的宝可梦,而这只海龟的ID > 400 ),这是否代表P(海龟|Water) = 0 ?

答案是否定的。我们可以想象说这已有的79只水系宝可梦其实是所有水系宝可梦中的冰山一角,假设水系宝可梦的「特防」和「防御」是从一个高斯分布中采样出来的,上图只是采样了79个点,但是从整个高斯分布里采样出这个海龟的概率并不是零。

那么根据已有的79个点,找到它的高斯分布呢?

高斯分布

对于高斯函数: f μ , Σ ( x ) = 1 ( 2 π ) D / 2 1 ∣ Σ ∣ 1 / 2 exp ⁡ { − 1 2 ( x − μ ) T Σ − 1 ( x − μ ) } f_{\mu, \Sigma}(x)=\frac{1}{(2 \pi)^{D / 2}} \frac{1}{|\Sigma|^{1 / 2}} \exp \left\{-\frac{1}{2}(x-\mu)^{T} \Sigma^{-1}(x-\mu)\right\} fμ,Σ(x)=(2π)D/21Σ1/21exp{21(xμ)TΣ1(xμ)},μ表示均值,Σ表示协方差。

输入一个x,输出是采样点为x的概率。高斯函数的形状由均值μ和协方差Σ共同决定。

在μ不同,Σ相同时,分布中心点位置不一样,但分散程度一致;在μ相同,Σ不同时,分布中心点位置一样,但分散程度不同。

Maximum Likehood(最大似然估计)

为了找到采样点的高斯分布,我们只需要去估测出这个高斯分布的均值μ和协方差Σ即可。

估测μ和Σ的方法就是最大似然估计法,极大似然估计法的思想是,找出最特殊的μ和Σ,从它们共同决定的高斯函数中再次采样出79个点,使“得到的分布情况与当前已知79个点的分布情况相同”这件事的可能性最大。

实际上可以存在不同的高斯分布,它们都包含这79个点。但是我们想要找的是发生概率最大的那一个。

为此我们需要的就是找到μ*和Σ*,使得似然函数 L ( μ , Σ ) = f μ , Σ ( x 1 ) f μ , Σ ( x 2 ) f μ , Σ ( x 3 ) … … f μ , Σ ( x 79 ) L(\mu, \Sigma)=f_{\mu, \Sigma}\left(x^{1}\right) f_{\mu, \Sigma}\left(x^{2}\right) f_{\mu, \Sigma}\left(x^{3}\right) \ldots \ldots f_{\mu, \Sigma}\left(x^{79}\right) L(μ,Σ)=fμ,Σ(x1)fμ,Σ(x2)fμ,Σ(x3)fμ,Σ(x79)达到最大值。

如果样本点服从高斯分布,我们有结论: μ ∗ = 1 79 ∑ n = 1 79 x n Σ ∗ = 1 79 ∑ n = 1 79 ( x n − μ ∗ ) ( x n − μ ∗ ) T \mu^{*}=\frac{1}{79} \sum_{n=1}^{79} x^{n} \quad \Sigma^{*}=\frac{1}{79} \sum_{n=1}^{79}\left(x^{n}-\mu^{*}\right)\left(x^{n}-\mu^{*}\right)^{T} μ=791n=179xnΣ=791n=179(xnμ)(xnμ)T

即使L(μ,Σ)最大的那组参数,实际上就是所有样本点的均值和协方差。

注:这里假设各个样本点xi之间相互独立。

通过上面的方法,我们分别得到水系宝可梦和普通系宝可梦样本点最好的高斯分布的均值和协方差为:

μ 1 = [ 75.0 71.3 ] Σ 1 = [ 874 327 327 929 ] μ 2 = [ 55.6 59.8 ] Σ 2 = [ 847 422 422 685 ] \mu^{1}=\left[\begin{array}{ll}75.0 \\ 71.3\end{array}\right] \quad \Sigma^{1}=\left[\begin{array}{ll}874 & 327 \\ 327 & 929\end{array}\right] \quad \mu^{2}=\left[\begin{array}{l}55.6 \\ 59.8\end{array}\right] \quad \Sigma^{2}=\left[\begin{array}{ll}847 & 422 \\ 422 & 685\end{array}\right] μ1=[75.071.3]Σ1=[874327327929]μ2=[55.659.8]Σ2=[847422422685]

此时,我们终于可以进行分类工作啦。

已知:

P(C1)​ = 79 / (79+61) = 0.56

P(C2) = 61 / (79+61) = 0.44

P(x|C1) = f μ 1 , Σ 1 ( x ) = 1 ( 2 π ) D / 2 1 ∣ Σ 1 ∣ 1 / 2 exp ⁡ { − 1 2 ( x − μ 1 ) T ( Σ 1 ) − 1 ( x − μ 1 ) } f_{\mu^{1}, \Sigma^{1}}(x)=\frac{1}{(2 \pi)^{D / 2}} \frac{1}{\left|\Sigma^{1}\right|^{1 / 2}} \exp \left\{-\frac{1}{2}\left(x-\mu^{1}\right)^{T}\left(\Sigma^{1}\right)^{-1}\left(x-\mu^{1}\right)\right\} fμ1,Σ1(x)=(2π)D/21Σ11/21exp{21(xμ1)T(Σ1)1(xμ1)}

P(x|C2) = f μ 2 , Σ 2 ( x ) = 1 ( 2 π ) D / 2 1 ∣ Σ 2 ∣ 1 / 2 exp ⁡ { − 1 2 ( x − μ 2 ) T ( Σ 2 ) − 1 ( x − μ 2 ) } f_{\mu^{2}, \Sigma^{2}}(x)=\frac{1}{(2 \pi)^{D / 2}} \frac{1}{\left|\Sigma^{2}\right|^{1 / 2}} \exp \left\{-\frac{1}{2}\left(x-\mu^{2}\right)^{T}\left(\Sigma^{2}\right)^{-1}\left(x-\mu^{2}\right)\right\} fμ2,Σ2(x)=(2π)D/21Σ21/21exp{21(xμ2)T(Σ2)1(xμ2)}

可以计算得 P ( C 1 ∣ x ) = P ( x ∣ C 1 ) P ( C 1 ) P ( x ∣ C 1 ) P ( C 1 ) + P ( x ∣ C 2 ) P ( C 2 ) P\left(C_{1} \mid x\right)=\frac{P\left(x \mid C_{1}\right) P\left(C_{1}\right)}{P\left(x \mid C_{1}\right) P\left(C_{1}\right)+P\left(x \mid C_{2}\right) P\left(C_{2}\right)} P(C1x)=P(xC1)P(C1)+P(xC2)P(C2)P(xC1)P(C1)

如果P(C1|x) > 0.5,则我们认为它属于class1(水系)。

小结一下

我们先是假设采样点的两项feature都服从高斯分布,随后找到了满足最大似然估计的高斯函数(也就找到了从class1和class2中取出x的概率),这样我们就可以计算任意P(C1|xi) 、P(C2|xi) ,判断取的宝可梦是水系还是普通系。甚至我们还可以求P(xi)。

来看结果

  • 当我们考虑2个feature(防御、特防)时,在测试集上的准确率仅有47%。
  • 当我们考虑7个feature时,在测试集上的准确率达到了54%。

我们仅考虑2个feature时效果不好,想着模型在更高维度上会不会有更好的表现,于是尝试考虑7个feature,但结果仍旧不如人意。

调整模型

其实之前使用的model是不常见的,你是不会经常看到每一个高斯函数都有自己的平均值μ和协方差Σ的,比较常见的是,不同的class可以共用一个协方差矩阵Σ。

其实Σ是和输入的feature size的平方成正比的,所以当feature的数量很大的时候,Σ大小的增长是可以非常快的。在这种情况下,给不同的高斯函数以不同的Σ,会造成model的参数太多,而参数太多会导致该model的variance过大,出现overfitting的现象。因此,不同的class选用同一个Σ,可以有效降低overfitting造成的error。

t d : 但 是 m o d e l 简 单 了 , b i a s 不 就 又 大 了 么 ? \color{white}{td:但是model简单了,bias不就又大了么?} tdmodelbias

找到μ1,μ2,Σ,使得似然函数得到最大值:

L ( μ 1 , μ 2 , Σ ) = f μ 1 , Σ ( x 1 ) f μ 1 , Σ ( x 2 ) ⋯ f μ 1 , Σ ( x 79 ) × f μ 2 , Σ ( x 80 ) f μ 2 , Σ ( x 81 ) ⋯ f μ 2 , Σ ( x 140 ) \begin{aligned} L\left(\mu^{1}, \mu^{2}, \Sigma\right)=f_{\mu^{1}, \Sigma}\left(x^{1}\right) & f_{\mu^{1},\Sigma}\left(x^{2}\right) \cdots f_{\mu^{1}, \Sigma}\left(x^{79}\right) \times & f_{\mu^{2}, \Sigma}\left(x^{80}\right) f_{\mu^{2}, \Sigma}\left(x^{81}\right) \cdots f_{\mu^{2}, \Sigma}\left(x^{140}\right) \end{aligned} L(μ1,μ2,Σ)=fμ1,Σ(x1)fμ1,Σ(x2)fμ1,Σ(x79)×fμ2,Σ(x80)fμ2,Σ(x81)fμ2,Σ(x140)

其中Σ是Σ1和Σ2的加权,权重分别为class1样本点数占总样本点数的比例、class2样本点数占总样本点数的比例,具体证明见Bishop的书。

共用Σ后,我们发现class1和class2的分界线由原来的曲线变成了线性的直线,且准确率有所提升。

可选的分布

为什么选用高斯?

你也许会有一个疑惑,为什么我们选用高斯模型,而不选择别的分布函数。其实这里只是拿高斯举个例子而已,你完全可以选择自己喜欢的概率分布函数。

如果你选择的是简单的分布函数,相对来说你的bias就比较大,variance就比较小;你选择复杂的函数,相对来说你的bias就比较小,variance就比较大。

你可以都试试,最后选择合适的分布函数作为model就可以了。

伯努利分布

对于输入仅考虑2个特征的问题,你可以假设样本点服从伯努利分布。

比如宝可梦有某个feature是二元的,它只有两种结果:是或不是。这个时候就不太可能是高斯分布了,而很有可能是伯努利分布。

朴素贝叶斯分类法 t d \color{white}{td} td

假设x = [x1 x2 … xk]中每一个维度的xk的分布都是相互独立的,它们之间的协方差都是0,那么我们可以把

class1中x产生的几率分解为class1中x1、x2、… xk产生的几率的乘积。

注:这里的x1到xk指的是feature。

那么在这里每一个维度的分布函数都是一维的高斯分布,等于是说,原来那么多维度的高斯分布函数,它的协方差矩阵变成了对角的,在不是对角线的地方,值都是0,这样就可以更加减少需要的参数量,就可以得到一个更简单的model。

我们把上述这种方法叫做「朴素贝叶斯分类法」,如果真的明确了所有的feature之间是相互独立的,是不相关的,使用朴素贝叶斯分类法的表现会是不错的。但如果假设不成立,那么它的bias就会很大(朴素贝叶斯分类法本质就是减少参数)。

当然对于前面宝可梦的分类,这种model就不适合。因为各种feature之间并不独立。

总之,找model的原则是,尽量减少不必要的参数,但是不要缺省必要参数。

将后验概率转化成sigmoid函数

我们可以将复杂的后验概率函数 P ( C 1 ∣ x ) = P ( x ∣ C 1 ) P ( C 1 ) P ( x ∣ C 1 ) P ( C 1 ) + P ( x ∣ C 2 ) P ( C 2 ) P\left(C_{1} \mid x\right)=\frac{P\left(x \mid C_{1}\right) P\left(C_{1}\right)}{P\left(x \mid C_{1}\right) P\left(C_{1}\right)+P\left(x \mid C_{2}\right) P\left(C_{2}\right)} P(C1x)=P(xC1)P(C1)+P(xC2)P(C2)P(xC1)P(C1)化简成一个简单的sigmoid函数 σ ( z ) \sigma(z) σ(z)

如果class1和class2对应的高斯分布函数共用一个协方差Σ,那么经过计算,sigmoid函数 σ ( z ) \sigma(z) σ(z)中的参数z又可以写成 w ⋅ x + b w \cdot x+b wx+b的形式。

P ( C 1 ∣ x ) = σ ( w ⋅ x + b ) P\left(C_{1} \mid x\right)=\sigma(w \cdot x+b) P(C1x)=σ(wx+b),这也就解释了为什么当class1和class2共用Σ的时候,它们之间的分界线会是线性的。td

在Generative model中,我们要做的事情就是,找到 N 1 , N 2 , μ 1 , μ 2 , Σ N_{1}, N_{2}, \mu^{1}, \mu^{2}, \Sigma N1,N2,μ1,μ2,Σ,然后计算出w和b。把它们代入 P ( C 1 ∣ x ) = σ ( w ⋅ x + b ) P\left(C_{1} \mid x\right)=\sigma(w \cdot x+b) P(C1x)=σ(wx+b)这个式子就可以计算出概率了。

但是,当你看到这个式子的时候,也许你会想,既然我的最终目标是要找到一个向量w和标量b,那么我必须要经过这么多的复杂计算吗?我能否直接找到w和b呢?

这,是下一章的内容。

Conclusion

  • 回归的方法不适合分类
    • 我们做回归时,输出的是连续的值,这个值可以是任何值。而我们做分类时,输出是离散的值。
  • 这次我们将Loss function定义为 L ( f ) = ∑ n δ ( f ( x n ) ≠ y ^ n ) L(f)=\sum_{n} \delta\left(f\left(x^{n}\right) \neq \hat{y}^{n}\right) L(f)=nδ(f(xn)=y^n),我们希望它足够小。
  • 为了找到最好的function,我们采用了Generative model,并假设了采样点服从高斯分布,通过计算最大似然估计找到了最好的高斯概率分布函数,为分类(也就是寻找最好的function: P ( C 1 ∣ x ) = P ( x ∣ C 1 ) P ( C 1 ) P ( x ∣ C 1 ) P ( C 1 ) + P ( x ∣ C 2 ) P ( C 2 ) P\left(C_{1} \mid x\right)=\frac{P\left(x \mid C_{1}\right) P\left(C_{1}\right)}{P\left(x \mid C_{1}\right) P\left(C_{1}\right)+P\left(x \mid C_{2}\right) P\left(C_{2}\right)} P(C1x)=P(xC1)P(C1)+P(xC2)P(C2)P(xC1)P(C1))提供了条件。
  • 为了提高准确率,选择不同类共用一个协方差Σ。
    • 此时后验概率可以用sigmoid函数线性表达。
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值