聚类
彷徨的石头
这个作者很懒,什么都没留下…
展开
-
K均值 && 模糊c均值
matlab帮助--统计工具箱--Multivariate Statistics--clusteranalysis,里面是实例,K-mean和c-mean是一回事在help-search中搜 fuzzy cluster,就有相应函数了,fcmclusterT= kmeans(mm',clusternum);%mm' 为样本按行排列,clusternum聚类总数cluster=fi转载 2012-08-02 11:00:35 · 2080 阅读 · 0 评论 -
分类与聚类的区别
简单地说,分类(Categorization or Classification)就是按照某种标准给对象贴标签(label),再根据标签来区分归类。简单地说,聚类是指事先没有“标签”而通过某种成团分析找出事物之间存在聚集性原因的过程。区别是,分类是事先定义好类别 ,类别数不变 。分类器需要由人工标注的分类训练语料训练得到,属于有指导学习范畴。聚类则没有事先预定的类别,类别数不确定。 聚转载 2012-08-02 20:58:07 · 941 阅读 · 0 评论 -
Birch聚类算法
1.BIRCH算法概念 BIRCH(Balanced Iterative Reducing and Clustering Using Hierarchies)全称是:利用层次方法的平衡迭代规约和聚类。BIRCH算法是1996年由Tian Zhang提出来的,参考文献1。首先,BIRCH是一种聚类算法,它最大的特点是能利用有限的内存资源完成对大数据集的高质量的聚类,同时通过单遍转载 2012-08-10 20:44:31 · 4190 阅读 · 0 评论 -
模糊C均值聚类
模糊C均值聚类(FCM),即众所周知的模糊ISODATA,是用隶属度确定每个数据点属于某个聚类的程度的一种聚类算法。1973年,Bezdek提出了该算法,作为早期硬C均值聚类(HCM)方法的一种改进。FCM把n个向量xi(i=1,2,…,n)分为c个模糊组,并求每组的聚类中心,使得非相似性指标的价值函数达到最小。FCM与HCM的主要区别在于FCM用模糊划分,使得每个给定数据点用值在0,1间转载 2012-08-01 13:17:31 · 2118 阅读 · 0 评论 -
聚类算法学习笔记
A 距离和相似度测量这里用的是基于先验知识的个体分类准则。数据对象一般是用一组多维特指向量描述的,该特征可以是定量的或者是定性的,是连续的或二值的(不连续的),是名词性的或顺序性的,这些性质决定了其相似度的度量法则。定义在数据组X上的不相似函数或距离函数必须满足以下条件:1)对称性2)正则性D(xi,xj)>=0 3)满足三角不等式 4)自反性类似的,相似函数定义为满足下面条件:1)转载 2012-08-01 13:20:56 · 1027 阅读 · 0 评论 -
模糊聚类算法(FCM)和硬聚类算法(HCM)的VB6.0实现及其应用
程序实现: 上面的公式看似复杂,其实我们关心的就是最后的5个计算步骤,这里说明一下,有的书上以隶属度矩阵的某一范数小于一定值作为收敛的条件,这也可,不过计算量稍微要大一点了。 程序采用VB6.0编制,完全按照以上的步骤进行。 '程序实现功能:模糊聚类和硬聚类'作 者: laviewpbt'联系方式: laviewpbt@sina.com'转载 2012-08-02 11:02:56 · 6527 阅读 · 0 评论 -
K-means文档聚类初值选择方法
k-means的本质在于通过多次迭代,达到逐步求精的目的。k-means算法具有线性的时间复杂度,因而更加适合像文档聚类这种运算时间开销较大的应用。但是该方法需要预先制定初始值,如聚类的初始种子点、聚类个数k、初始化分等。并且初始化分的好坏对最终聚类的质量有较大影响。选择初始聚类点一般有经验选择、随机选择、最小最大原则等方法,其中最小最大原则主要依据待聚类对象的相似情况选择初始聚点,从而克服了随机转载 2013-04-05 10:38:22 · 3466 阅读 · 0 评论 -
k-means
K-means算法是很典型的基于划分的聚类算法,采用距离作为相似性的评价指标,即认为两个对象的距离越近,其相似性就越大。该类算法认为簇是由距离靠近的对象组成的,因此把得到紧凑且独立的簇作为最终目标。算法的目标是根据输入的参数k,将数据划分为k个簇。该聚类方法用到的数学思想很简单,但聚类的效果很好。 算法首先随机选取k个点作为初始聚类中心,然后计算各个样本到聚类中心的距离,转载 2012-08-29 10:54:22 · 2025 阅读 · 0 评论