- 博客(8)
- 资源 (5)
- 收藏
- 关注
原创 RBM算法理解及推导
现在重新复习一下RBM算法,发现有一个新的发现。 首先给出几个非常好的博客: (1)关于MCMC采样及Gibbs采样:http://blog.csdn.net/pipisorry/article/details/51373090 (2)关于MCMC采样的形象解释及理解:https://www.zhihu.com/question/20743905/answer/155412666 (3)关
2017-11-25 21:14:36 3117
原创 因子分析(Factor Analysis Model)算法推导
可以参考斯坦福大学Andrew Ng的学习视频:http://open.163.com/movie/2008/1/L/3/M6SGF6VB4_M6SGKK6L3.html 关于算法总结可以参考:https://www.cnblogs.com/jerrylead/archive/2011/05/11/2043317.html 以下图为自己完善的算法推导流程: 待添加
2017-11-21 00:13:15 5334 3
原创 基于EM算法的文本聚类
文本聚类问题: 一个文本为一个向量,向量的长度为字典的长度,这个向量中的每个值为0或1,表示这个单词是否在该文章中出现。 假设为二分类,则每个向量对应一个分类值,分类值为0或1,如果为三分类,则分类值为0,1,2。而这个标签值为隐变量Z。 这里的观测O为具体的各个向量。在这个模型里,参数是什么呢? 我们需要由参数出发,经由隐变量,计算得到观测O,因此这里的参数设计可以类似于隐马尔可夫模型的
2017-11-20 18:47:43 1410 2
转载 矩阵微分基础知识
转自:http://www.cnblogs.com/xuxm2007/p/3332035.html 矩阵微分 http://www.iwenchao.com/mathematics/matrix-differential.html http://en.wikipedia.org/wiki/Matrix_calculus http://www.atmos.washington.edu
2017-11-17 22:41:19 2291
原创 隐马尔可夫模型算法推导
上一篇博客是关于EM算法及混合高斯模型的推导,这里的隐马尔可夫模型也属于EM算法的范畴,都是使似然函数的期望最大来推导的。 隐马尔可夫模型在推导过程中与混合高斯模型不同的地方在于: 1、前者在推导时,观测序列O只有一个(一个序列包括多个序列值),而隐序列I则有许多个,因此在刚开始时,全局的P(O|λ)可以去掉; 而混合高斯模型的观测则有很多个,每个观测只包括一个值(一维的单个值或者多维的向量
2017-11-17 18:06:03 539
原创 EM算法及混合高斯模型详细推导
EM模型是一个大的范畴,在模型包含隐变量的情况下,根据观测求模型参数,EM算法的典型应用有混合高斯模型及隐马尔可夫模型。想要真正理解EM算法,了解混合高斯模型及隐马尔可夫模型的算法推导是很有必要的。以下两个图,本人结合《统计学习方法》上的算法推导及自己的理解,总结了EM算法及混合高斯模型的推导过程。其中混合高斯模型处理的是一维数据,多维数据的在其基础上有些变化,随后整理。
2017-11-17 00:41:03 1978
原创 Kaggle项目:Kobe Bryant Shot Selection(科比投篮选择)
作为一个篮球迷,觉得这个题目非常有意思,竞赛的网址:https://www.kaggle.com/c/kobe-bryant-shot-selection
2017-11-11 01:55:14 5283
原创 常用的机器学习算法学习
1、GBDT(Gradient Boosting Decision Tree) 2、FM(主要用于处理数据稀疏的情况),针对两两特征,增加一个系数W用于提取特征间的关系, 而后用一个小矩阵V,乘以V转置来代替W矩阵。 3、决策树与回归树: 决策树是判断yes或no,每一步选择特征时用的是(熵增益)或者(Gini系数)的方法 回归树则用于拟合,结果需要给出一个特定的数值,每一步选择特征时用
2017-11-08 21:23:38 337
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人