- 博客(5)
- 资源 (6)
- 收藏
- 关注
原创 史上最直白的朴素贝叶斯教程
贝叶斯公式设AA和BB是两个事件,根据全概率公式: P(A∩B)=P(B)P(A|B)=P(A)P(B|A)\begin{equation}P(A\cap B)=P(B)P(A|B)=P(A)P(B|A)\end{equation} 所以有: P(B)P(A|B)=P(A)P(B|A)\begin{equation}P(B)P(A|B)=P(A)P(B|A)\end{equation}
2015-12-22 16:26:46 3149 3
原创 史上最直白的LDA教程之二
史上最直白的LDA教程的pdf文档已经整理,并上传到csdn,链接如下:http://download.csdn.net/detail/u011539200/9361723
2015-12-16 16:46:32 1186
原创 史上最直白的LDA教程之一
前言LDA线性鉴别分析,又叫线性鉴别矢量,它是Ronald Fisher发明的,所以有时候又叫Fisher鉴别矢量,它的核化版本叫KFDA(Kernel Fisher Discriminant Analysis)。机器学习的分类问题 ,是一种有监督学习。所谓有监督,就是知道训练样本的类别。顾名思义,无监督学习就是没有样本的类别信息,比如PCA就是无监督学习,如我们前面推导过的PCA,不需要
2015-12-16 16:26:29 9649 3
原创 史上最直白的ICA教程之二
整个文档已经整理成pdf,文档在:http://download.csdn.net/detail/u011539200/9347083免积分,求人品。
2015-12-11 14:49:13 2174
原创 史上最直白的ICA教程之一
前言独立成分分析ICA是一个在多领域被应用的基础算法。ICA是一个不定问题,没有确定解,所以存在各种不同先验假定下的求解算法。相比其他技术,ICA的开源代码不是很多,且存在黑魔法–有些步骤并没有在论文里提到,但没有这些步骤是无法得到正确结果的。本文给出一个ICA最大似然解法的推导,以及FastICA的python实现,限于时间和实际需求,没有对黑魔法部分完全解读,只保证FastICA实现能得到正确结
2015-12-11 14:38:56 34469 19
史上最直白的logistic regression教程整理稿
2015-11-22
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人