![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
子空间学习
王嗣钧
不积跬步,无以至千里;不积小流,无以成江海
展开
-
总结一下遇到的各种核函数~
由于之前做了很多核方法相关的子空间学习算法,本文打算对各种核函数进行一下简要的介绍,希望对大家能够有所帮助。原创 2015-07-24 01:08:50 · 50480 阅读 · 14 评论 -
再谈拉普拉斯惩罚~
上一篇博客,我介绍了《拉普拉斯平滑及其在正则化方向上的应用》,但是事后读一读,发现拉普拉斯惩罚这部分,自己说的太快了,想说的东西没有全部并有条理的说出来,于是决定再写写这块的东西,有什么错误,希望大家不吝批评指正,感激万分!原创 2014-10-22 16:41:07 · 6662 阅读 · 1 评论 -
神奇的拉普拉斯平滑(Laplacian Smoothing)及其在正则化上的应用~
之前的博客介绍过自己对于正则化的理解原创 2014-10-20 17:05:21 · 47674 阅读 · 3 评论 -
解释一下核主成分分析(Kernel Principal Component Analysis, KPCA)的公式推导过程~
KPCA,中文名称”核主成分分析“,是对PCA算法的非线性扩展,言外之意,PCA是线性的,其对于非线性数据往往显得无能为力,例如,不同人之间的人脸图像,肯定存在非线性关系,自己做的基于ORL数据集的实验,PCA能够达到的识别率只有88%,而同样是无监督学习的KPCA算法,能够轻松的达到93%左右的识别率(虽然这二者的主要目的是降维,而不是分类,但也可以用于分类),这其中很大一部分原因是,KPCA能够挖掘到数据集中蕴含的非线性信息。原创 2014-10-23 15:44:07 · 62528 阅读 · 49 评论 -
谈谈自己对正则化的一些理解~
上学的时候,就一直很好奇,模式识别理论中,常提到的正则化到底原创 2014-09-25 12:12:05 · 43759 阅读 · 19 评论