第4章 分类的线性模型(PRML读书笔记)

本章小结

  本章讨论分类问题。分类的⽬标是将输⼊变量x分到K个类别 C k C_k Ck中的某⼀类。最常见的情况是,类别互不相交,每个输⼊被分到唯⼀一个类别中。因此输⼊空间被划分为不同的决策区域,它的边界被称为决策边界或者决策⾯。在本章中,考虑分类的线性模型的,即决策面是输⼊向量x的线性函数,因此被定义为D维输⼊空间中的(D − 1)维超平⾯(附录部分会对这个做解释)。如果数据集可以被线性决策⾯精确地分类,那么这个数据集是线性可分的。
  对于概率模型来说,在⼆分类情况下,最⽅便的表达⽅式是⼆元表⽰⽅法,即⽬标变量 t ∈ { 0 , 1 } t\in\{0,1\} t{0,1} ,其中t = 1表⽰类别 C 1 C_1 C1,⽽t = 0表⽰类别 C 2 C_2 C2,我们可以把t的值看成分类结果为 C 1 C_1 C1的概率,这个概率只取极端的值0和1。多类情况下(K > 2),一般使⽤“1-of-K”编码规则,t是⼀个长度为K的向量,如果类别为 C j C_j Cj,那么t的所有元素 t k t_k tk中,只有 t j t_j tj等于1,其余都等于0。例如,如果我们有5个类别,那么来⾃第2个类别的模式给出的⽬标向量为
在这里插入图片描述
  本章介绍三种分类方法(正如在1.5.4节中所介绍的):

  • 判别函数法:直接把输入向量x分到具体的类别中
  • 概率生成式方法:分为推断和决策两个阶段。推断阶段对类先验概率 p ( C k ) p(C_k) p(Ck)和类条件概率 p ( x ∣ C k ) p(\textbf{x}|C_k) p(xCk)分别建模,再根据贝叶斯定理 p ( C k ∣ x ) = p ( x ∣ C k ) p ( C k ) ∑ j p ( x ∣ C j ) p ( C j ) p(C_k|\textbf{x})=\frac{p(\textbf{x}|C_k)p(C_k)}{\sum_{j}p(\textbf{x}|C_j)p(C_j)} p(Ckx)=jp(xCj)p(Cj)p(xCk)p(Ck)得出类的后验概率。决策阶段使用类的后验概率分布进⾏最优决策。
  • 概率判别式方法:分为推断和决策两个阶段。推断阶段直接对 p ( C k ∣ x ) p(C_k|\textbf{x}) p(Ckx)建模,决策阶段使用类的后验概率分布进⾏最优决策。

  后面的4.1-4.3小节分别对三种分类方法进行介绍。

附录

问题整理

  • 分类的线性模型的中,为什么决策面是D维输⼊空间中的(D − 1)维超平⾯?
    在线性模型中,决策面为 w T x + b = 0 \textbf{w}^T\textbf{x}+b=0 wTx+b=0x的维度是D,则 w T x + b = 0 \textbf{w}^T\textbf{x}+b=0 wTx+b=0即是D维输⼊空间中的(D − 1)维超平⾯。

后续工作

4.4、4.5两节还未完全看完。

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值