自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 资源 (4)
  • 收藏
  • 关注

原创 GMM实验

聚类实验代码: testGmm.m ——测试主函数function testGmm() X = generateData(); K = 2; gamma = gmm(X, K); %根据最大后验概率确定类别 [value,gamma_K] = max(gamma,[],2); % show result figure(3) idx1

2017-04-25 22:15:03 1337

原创 K-Means实验

实验一:聚类实验代码: testKMeans.m ——测试主函数function testKMeans() X = GenerateGaussianMixtureDataset(); K = 2; [gamma, centroids] = K_Means(X, K); % show result figure(3) idx1 = find(gamma

2017-04-25 21:38:54 2001

原创 EM算法(期望最大化)——从EM算法角度理解K-Means与GMM的区别

K-Means算法简介K-Means算法是一种常用的聚类算法,它认为由一组数据点构成的一个聚类中,聚类内部点之间的距离应该小于数据点与聚类外部的点之间的距离。假设我们有一组数据集{x1,...,xN}\{x_1,...,x_N\},我们的目标是将数据集划分为KK个类别。为了解决这个问题,K-Means算法希望找到KK个聚类的中心{μk},k=1,...,K\{\mu_k\},k=1,...,K,同时

2017-04-25 16:34:38 13427

原创 EM算法(期望最大化)——应用:GMM

GMM模型简介GMM(Gaussian Mixture Model)也叫高斯混合模型。我们(1)可以把它看做是高斯分量的简单线性叠加,其目标是提供一种比单独的高斯分布(GSM,Gaussian Single Model)更为强大的概率模型;(2)也可以利用离散隐变量来描述GMM,并从EM算法层面给出GMM模型的一种优雅解法。 首先,给出高斯混合模型的概率公式(考虑单样本): p(x|π,μ,Σ)

2017-04-24 22:20:11 2851

原创 EM算法(期望最大化)——理论部分

EM算法的目标EM算法是一种求解含有隐变量概率模型的最大似然解的方法。我们知道,当概率模型中含有隐变量时,其最大似然解是很难直接求解的。为什么很难直接求解呢? 考虑一个概率模型,我们将所有的观测变量统称为XX,参数统称为θ\theta。我们的目标是求解似然函数p(X|θ)p(X|\theta)。假设该概率模型存在隐变量,统称为ZZ。所以,p(X|θ)=∑Zp(X,Z|θ)p(X|\theta)=\

2017-04-22 20:30:17 5215

斯坦福大学机器学习课程原始讲义

这是斯坦福大学的副教授,机器学习界大牛Andrew NG上课时候的讲义,分享出来供大家一起学习。

2014-09-25

opencv链接文件.txt

opencv链接文件.txt

2014-05-17

CAD三维建模练习.doc

CAD三维建模练习.doc

2013-03-20

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除