李航统计学习方法总结

10种统计学习方法特点的总结概括
方法适用问题模型特点模型类型学习策略学习的损失函数学习算法备注

感知机

二类分类

分离超平面

 

判别模型

极小化误分类点到超平面的距离

 

误分类点到超平面距离(经验风险)随机梯度下降 
{\color{Blue} w \cdot x + b = 0}{\color{Blue} f(x) = sign(w \cdot x + b)}{\color{Blue} \min_{w,b}L(w,b) = -\sum_{x_{i} \in M}y_{i}(w \cdot x+b)}
k近邻多类分类,回归特征空间,样本点判别模型

k近邻算法的三要素:距离度量、k值选择、和分类决策规则。

距离度量:欧氏距离和一般的 \small L_{p} 距离

常用的分类决策规则是多数表决,对应于经验风险最小化

                       

k近邻算法的实现需要考虑如何快速搜索k个最近邻点,kd树是一种便于对k维空间中的数据进行快速检索的数据结构。
                       \small {\color{Blue} \sum _{x_{i} \in N_{k}(x)}I(y_{i}=c_{i}){\color{Red} }}                      kd树是二叉树,对应对k维空间的一个划分,其每个节点对应于k维空间划分中的一个超矩形区域。
朴素贝叶斯多类分类特征与类别的联合概率分布,条件独立性假设

生成模型(通过训练数据得到联合分布)

{\color{Blue} P(X,Y)=P(Y)P(X|Y)}

 

 

极大似然估计,极大后验概率估计(期望风险最小化)对数似然损失概率计算公式,EM算法 
{\color{Blue} P(X= x| Y=c_{k})}\\ {\color{Blue}=P(X^{(1)}=x^{(1)},...,X^{(n)}=x^{(n)}|Y=c_{k})}\\ {\color{Blue}=\prod_{j=1}^{n}P(X^{(j)}=x^{(j)}|Y=c_{k})}

{\color{Blue} P(Y|X)=\tfrac{P(X,Y)}{P(X)} \\=\tfrac {P(Y)P(X|Y)}{\sum_{Y}P(Y)P(X|Y)}}

{\color{Blue} y=\arg \max _{c_{k}}P(Y=c_{k})\prod_{j=1}^{n}P(X_{j}=x^{j}|Y=c_{k})}

后验概率最大等价于0-1损失函数时的期望风险最小化
决策树多类分类,回归分类树,回归树判别模型正则化的极大似然估计(以损失函数为目标函数的最小化)对数似然函数特征选择,生成,剪枝自上而下生成,自下而上剪枝
  

逻辑斯蒂回归

与最大熵

多类分类特征条件下类别的条件概率分布,对数线性模型判别模型极大似然估计,正则化的极大似然估计逻辑斯蒂损失改进的迭代尺度法IIS,梯度下降,拟牛顿法

 

 

 

{\color{Blue} P(Y=k|x) = \tfrac{exp(w_{k} \cdot x)}{1+\sum_{k=1}^{K-1}exp(w_{k} \cdot x)}, \, \; k=1,2,...,K-1}

{\color{Blue} P(Y=K|x) = \tfrac{1}{1+\sum_{k=1}^{K-1}exp(w_{k} \cdot x)}}

 

  

{\color{Blue} F(x) =\\ P(X\leq x)=\tfrac{1}{1+e^{-(x-\mu)/\gamma }}}

{\color{Blue} f(x) = F'(x) = \tfrac{e^{-(x-\mu)/\gamma}}{\gamma(1+e^{-(x-\mu)/\gamma})^2}}

最大熵

{\color{Blue} H(P)= -\sum_{x,y}\widetilde{P}(x)P(y|x) \log P(y|x)}

{\color{Blue} P_{w}(y|x) = \tfrac{1}{Z_{w}(x)}\exp \left( \sum_{i=1}^{n}w_{i}f_{i}(x,y) \right)}

{\color{Blue} Z_{w}(x) = \sum_{y} \exp \left( \sum_{i=1}^{n}w_{i}f_{i}(x,y) \right)}

   
支持向量机二类分类分离超平面判别模型极小化正则化合页损失,软间隔最大化合页损失序列最小最优化算法(SMO)

线性可分支持向量机

线性支持向量机

非线性支持向量机

  {\color{Blue} w^{*}\cdot x+b^{*}=0}{\color{Blue} f(x)=sign(w^{*}\cdot x+b^{*})}{\color{Blue} \min_{w,b} \tfrac{1}{2}||w||^2}L(y(w \cdot x+b))=[1-y(w \cdot x+b)]_{+}
提升方法二类分类弱分类器的线性组合判别模型极小化加法模型的指数损失指数损失前向分步加法算法 
        
EM算法概率模型参数估计含隐变量概率模型 极大似然估计,极大后验概率估计对数似然损失迭代算法 
  

E步,求期望:{\color{Blue} Q(\theta,\theta^{(i)})=\sum_{Z}\log P(Y,Z|\theta) P(Z|Y,\theta^{(i)})}

M步,求极大:{\color{Blue} \theta^{(i+1)}=\arg \max_{\theta}Q(\theta, \theta^{(i)})}

隐马尔可夫模型标注观测序列与状态序列的联合概率分布模型生成模型极大似然估计,极大后验概率估计对数似然损失概率计算公式,EM算法

概率计算算法

学习算法

预测算法

        
条件随机场标注状态序列条件下观测序列的条件概率分布,对数线性模型判别模型极大似然估计,极大后验概率估计对数似然损失改进的迭代尺度法,梯度下降,拟牛顿法

概率计算算法

学习算法

预测算法

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


参考文献:[1] 李航.统计学习方法[M], 清华大学出版社, 2012.3, ISBN 978-7-302-27595-4

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值