模式识别&机器学习
王嗣钧
不积跬步,无以至千里;不积小流,无以成江海
展开
-
浅谈随机森林在人脸对齐上的应用~
在我之前的博客中介绍过随机森林,随机森林在机器学习中的应用十分广泛,它属于非传统的机器学习算法,其他的诸如神经网络,MRF,Adaboost,乃至现在大名鼎鼎的深度学习,越来越取代了传统机器学习算法,如子空间学习,流程学习等的地位。果不其然,在众多基于传统机器学习的人脸对齐算法中,去年CPVR2014也出现了一篇论文,名曰《Face Alignment At 3000fps via Local Binary Features》,正是利用了随机森林对特定点进行定位,取得了与SDM等算法同样的效果,最关键的是,原创 2015-04-22 23:15:58 · 6174 阅读 · 16 评论 -
《BING: Binarized Normed Gradients for Objectness Estimation at 300fps》读后感~
夜深人静了,就想写点什么,早在去年,BING刚一出现就对其进行了关注,CVPR2014的文章,作者提供了详细的源代码,得到了普遍的认可,本文谈谈对BING的一些个人理解,欢迎批评指正!原创 2015-03-24 22:58:46 · 4766 阅读 · 16 评论 -
解释一下核主成分分析(Kernel Principal Component Analysis, KPCA)的公式推导过程~
KPCA,中文名称”核主成分分析“,是对PCA算法的非线性扩展,言外之意,PCA是线性的,其对于非线性数据往往显得无能为力,例如,不同人之间的人脸图像,肯定存在非线性关系,自己做的基于ORL数据集的实验,PCA能够达到的识别率只有88%,而同样是无监督学习的KPCA算法,能够轻松的达到93%左右的识别率(虽然这二者的主要目的是降维,而不是分类,但也可以用于分类),这其中很大一部分原因是,KPCA能够挖掘到数据集中蕴含的非线性信息。原创 2014-10-23 15:44:07 · 62979 阅读 · 49 评论 -
神奇的拉普拉斯平滑(Laplacian Smoothing)及其在正则化上的应用~
之前的博客介绍过自己对于正则化的理解原创 2014-10-20 17:05:21 · 48080 阅读 · 3 评论 -
一篇比较好的介绍方差&偏差概念的文章
版权声明: 本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。如果转载,请注明出处,在未经作者同意下将本文用于商业用途,将追究其法律责任。如果有问题,请联系作者 wheeleast@gmail.com前言: 距离上次发文章,也快有半个月的时间了,这半个月的时间里又在学习机器学习的道路上摸索着前进,积累了一点心得转载 2014-09-16 15:46:47 · 3258 阅读 · 0 评论 -
最好的EM算法介绍-由例子介绍原理
从最大似然到EM算法浅解zouxy09@qq.comhttp://blog.csdn.net/zouxy09 机器学习十大算法之一:EM算法。能评得上十大之一,让人听起来觉得挺NB的。什么是NB啊,我们一般说某个人很NB,是因为他能解决一些别人解决不了的问题。神为什么是神,因为神能做很多人做不了的事。那么EM算法能解决什么问题呢?或者说EM算法是因为什转载 2014-09-26 10:21:06 · 11304 阅读 · 8 评论 -
再谈拉普拉斯惩罚~
上一篇博客,我介绍了《拉普拉斯平滑及其在正则化方向上的应用》,但是事后读一读,发现拉普拉斯惩罚这部分,自己说的太快了,想说的东西没有全部并有条理的说出来,于是决定再写写这块的东西,有什么错误,希望大家不吝批评指正,感激万分!原创 2014-10-22 16:41:07 · 6709 阅读 · 1 评论 -
人脸检测中几种框框大小的选择~
人脸检测应用极为广泛,内部细节也偏多,尤其是涉及到几种类型的框,这几种框的大小之前有着千丝万缕的联系,对检测性能的好坏影响程度大小不一。本篇文章基于自己在人脸检测方面的经验,对这些框的来龙去脉尽量做出解释。原创 2014-11-18 10:18:52 · 11537 阅读 · 1 评论 -
总结一下遇到的各种核函数~
由于之前做了很多核方法相关的子空间学习算法,本文打算对各种核函数进行一下简要的介绍,希望对大家能够有所帮助。原创 2015-07-24 01:08:50 · 50921 阅读 · 14 评论 -
聊聊EM算法~
EM算法(Expection Maximuzation)的中文名称叫做期望最大化,我的理解EM算法就是一种引入隐含变量的坐标向上法,它与其他优化方法的目的相同,就是求解一个数学模型的最优参数,不同之处在于EM算法交互迭代的对象是隐含变量与模型参数,一般隐含变量表现为数据的类别。期望说白了就是数据的权重平均,在EM算法中,可以理解为数据的类别,那么既然确定好了数据的类别,下一步就是想办法求取新数据构成分布的参数,一般采用最大似然法求取最优参数。剩下的就是最普通的迭代过程,先初始化参数,计算数据的概率分布,再对原创 2015-07-07 17:58:46 · 2972 阅读 · 1 评论 -
谈谈自己对正则化的一些理解~
上学的时候,就一直很好奇,模式识别理论中,常提到的正则化到底原创 2014-09-25 12:12:05 · 43832 阅读 · 19 评论