图像聚类算法

什么是分类

分类
分类其实是从特定的数据中挖掘模式,作出判断的过程。
分类学习主要过程:
(1)训练数据集存在一个类标记号,判断它是正向数据集(起积极作用,不是垃圾短信), 还是负向数据集(起抑制作用,是垃圾短信);
(2)然后需要对数据集进行学习训练,并构建一个训练的模型;
(3)通过该模型对预测数据集进预测,并计算其结果的性能。
有些类型不区分正向和反向,比如,性别,男、女、其他(包含95种其他性别,阿美莉卡无奇不有,不知道是不是从佛罗里达传出去的)
这里要注意啊,咳咳,性别分类如果是依据某些标签(特征值,比如头发长短,性别特征)去做区分,那就是分类,如果是没有标签,依据数据共性去区分,那就是聚类了。

什么是聚类

聚类
从广义上说,聚类就是将数据集中在某些方面相似的数据成员放在一起。
一个聚类就是一些数据实例的集合,其中处于相同聚类中的数据元素彼此相似,但是处于不同聚类中的元素彼此不同。
由于在聚类中那些表示数据类别的分类或分组信息是没有的, 即这些数据是没有标签的 ,所以聚类通常被归为无监督学习(Unsupervised Learning)

引申一下有监督学习,半监督学习,无监督学习

区分有监督和无监督,就是看是否有监督(supervised)(这TM不是废话嘛!确实是废话),也就看输入数据是否有标签(label)。输入数据有标签,则为有监督学习(x,y),没标签则为无监督学习(x)。
举个栗子,在中学学习的时候,所有学习的终极目标就是考试,每次模考就是检测学习的一个过程,考的好与坏,都是有标准答案去判定的,这就是有监督学习

但是走上社会了,没有分数和答案的制约了,学习不论好坏,不论方向,这就是无监督学习

那么半监督呢?大学嘛,浪里个浪,大部分时间自由发挥,考前一周开始临时抱佛脚,直接开启super power模式,期末考过就行(60分万岁!!!)

聚类的目的也是把数据分类,但是事先是不知道如何去分的,完全是算法自己来判断各条数据之间的相似性,相似的就放在一起。
在聚类的结论出来之前,完全不知道每一类有什么特点,一定要根据聚类的结果通过人的经验来分析,看看聚成的这一类大概有什么特点。
总之,聚类主要是"物以类聚",通过相似性把相似元素聚集在一起,它没有标签;而分类通过标签来训练得到一个模型,对新数据集进行预测的过程,其数据存在标签。

聚类样本间的属性

1. 有序属性:西瓜的甜度:0.1,0.5,0.9
2. 无序属性:性别:男,女,等(这个等字就很精髓了)
这里聚类就是根据样本共性来的,比如某些妹子比较emmmm,你懂的,那么可能就被分到男性里面了(想什么呢,我说的是短发,手动狗头)

聚类的常见算法

聚类算法分为三大类:

1. 原型聚类:
K均值聚类算法(K-Means,不是Timi~~~!
2. 层次聚类
3. 密度聚类
K-Means聚类
K-Means聚类是最常用的聚类算法,最初起源于信号处理,其目标是将数据点划分为K个类簇。 该算法的最大优点是简单、便于理解,运算速度较快,缺点是要在聚类前指定聚集的类簇数。 k-means算法是一种原型聚类算法。
k-means聚类算法的分析流程:
第一步,确定K值,即将数据集聚集成K个类簇或小组。
第二步,从数据集中随机选择K个数据点作为质心(Centroid)或数据中心。
第三步,分别计算每个点到每个质心之间的距离,并将每个点划分到离最近质心的小组。
第四步,当每个质心都聚集了一些点后,重新定义算法选出新的质心。(对于每个簇,计算其均值,即得到新的k个质心点)
第五步,迭代执行第三步到第四步,直到迭代终止条件满足为止(聚类结果不再变化)
上废话,直接少图:

在图像处理中,通过K-Means聚类算法可以实现图像分割、图像聚类、图像识别等操作。
我们通过K-Means可以将这些像素点聚类成K个簇,然后使用每个簇内的质心点来替换簇内所有的像素点,这样就能实现在不改变分辨率的情况下 量化压缩图像颜色,实现图像颜色层级分割。
优点:
1.是解决聚类问题的一种经典算法,简单、快速
2.对处理大数据集,该算法保持高效率
3.当结果簇是密集的,它的效果较好
缺点:
1.必须事先给出k(要生成的簇的数目)
2.对躁声和孤立点数据敏感

层次聚类

层次聚类 是一种很直观的算法。顾名思义就是要一层一层地进行聚类。
层次法(Hierarchicalmethods) 先计算样本之间的距离。每次将距离最近的点合并到同一个类。然后,再计算类与类之间的距离,将距离最近的类合并为一个大类。不停的合并,直到合成了一个类。其中类与类的距离的计算方法有:最短距离法,最长距离法,中间距离法,类平均法等。比如最短距离法,将类与类的距离定义为类与类之间样本的最短距离。
层次聚类算法根据层次分解的顺序分为:自下底向上和自上向下,即 凝聚的层次聚类算法 分裂的层次聚 类算法( agglomerative和divisive) ,也可以理解为自下而上法(bottom-up)和自上而下法(top-down)。
自顶向下算法
Hierarchical K-means算法是“自顶向下”的层次聚类算法,用到了基于划分的聚类算法那K-means,算法思路如下:

1.首先,把原始数据集放到一个簇C,这个簇形成了层次结构的最顶层;

2.使用K-means算法把簇C划分成指定的K个子簇C_i,i = 1,2,…,k,形成一个新的层;

3.对于步骤2所生成的K个簇,递归使用K-means算法划分成更小的子簇,直到每个簇不能再划分(只包含一个数据对象)或者满足设定的终止条件。

Hierarchical K-means算法一个很大的问题是,一旦两个点在最开始被划分到了不同的簇,即使这两个点距离很近,在后面的过程中也不会被聚类到一起。

对于以上的例子,红色椭圆框中的对象聚类成一个簇可能是更优的聚类结果,但是由于橙色对象和绿色对象在第一次K-means就被划分到不同的簇,之后也不再可能被聚类到同一个簇。 

你在脑海,你在心田,你在天边

嗯哼,网抑云时间结束

自底向上算法
Agglomerative Clustering算法

相比于Hierarchical K-means算法存在的问题,Agglomerative Clustering算法能够保证距离近的对象能够被聚类到一个簇中,该算法采用的“自底向上”聚类的思路。

算法思路,对于数据集D,D={x_1,x_2,…,x_n}:

1.将数据集中的每个对象生成一个簇,得到簇列表C,C={c_1,c_2,…,c_n} a) 每个簇只包含一个数据对象:c_i={x_i};

2.重复如下步骤,直到C中只有一个簇: a) 从C中的簇中找到两个“距离”最近的两个簇:min⁡〖D(c_i,c_j)〗; b) 合并簇c_i和cj,形成新的簇c(i+j); c) 从C中删除簇c_i和cj,添加簇c(i+j)

簇间距离计算

在上面描述的算法中涉及到计算两个簇之间的距离,对于簇C_1和C_2,计算〖D(C_1,C〗_2),有以下几种计算方式:

单连锁(Single link)

 

两个簇之间最近的两个点的距离作为簇之间的距离,该方式的缺陷是受噪点影响大,容易产生长条状的簇。

全连锁(Complete link)

两个簇之间最远的两个点的距离作为簇之间的距离,采用该距离计算方式得到的聚类比较紧凑。

平均连锁(Average link)

两个簇之间两两点之间距离的平均值,该方式可以有效地排除噪点的影响。

 

Agglomerative算法示例

对于如下数据:

  1. 将A到F六个点,分别生成6个簇;

找到当前簇中距离最短的两个点,这里我们使用单连锁的方式来计算距离,发现A点和B点距离最短,将A和B组成一个新的簇,此时簇列表中包含五个簇,分别是{A,B},{C},{D},{E},{F},如下图所示;

2 . 找到当前簇中距离最短的两个点,这里我们使用单连锁的方式来计算距离,发现A点和B点距离最短,将A和B组成一个新的簇,此时簇列表中包含五个簇,分别是{A,B},{C},{D},{E},{F},如下图所示;

3 . 重复步骤二、发现{C}和{D}的距离最短,连接之,然后是簇{C,D}和簇{E}距离最短,依次类推,直到最后只剩下一个簇,得到如下所示的示意图:

4 .此时原始数据的聚类关系是按照层次来组织的,选取一个簇间距离的阈值,可以得到一个聚类结果,比如在如下红色虚线的阈值下,数据被划分为两个簇:簇{A,B,C,D,E}和簇{F}

Agglomerative聚类算法的优点是能够根据需要在不同的尺度上展示对应的聚类结果,缺点同Hierarchical K-means算法一样,一旦两个距离相近的点被划分到不同的簇,之后也不再可能被聚类到同一个簇,即无法撤销先前步骤的工作。

BIRCH算法
CURE算法
Chameleon变色龙算法

这三个放到后面单独出一期讲

层次聚类的优缺点
优点:
1,距离和规则的相似度容易定义,限制少;
2,不需要预先制定聚类数;
3,可以发现类的层次关系;
缺点:
1,计算复杂度太高;
2,算法很可能聚类成链状
K-Means 与层次聚类
每一种聚类方法都有其特定的数据结构,对于服从高斯分布的数据用K-Means来进行聚类效果会比较好。
而对于类别之间存在层结构的数据,用层次聚类会比较好。

拓展

密度聚类 DBSCAN
算法:
需要两个参数:ε (eps) 和形成高密度区域所需要的最少点数 (minPts)
它由一个任意未被访问的点开始,然后探索这个点的 ε-邻域,如果 ε-邻域里有足够的点,则建立一个新的聚类,否则这个点被标签为杂音。
注意,这个杂音点之后可能被发现在其它点的 ε-邻域里,而该 ε-邻域可能有足够的点,届时这个点会被加入该聚类中。
优点:
1. 对噪声不敏感;
缺点:
1. 聚类的结果与参数有很大的关系;
谱聚类
1. 根据数据构造一个 图结构(Graph) ,Graph 的每一个节点对应一个数据点,将相似的点连接起来,并且边的权重用于表示数据之间的相似度。把这个 Graph 用邻接矩阵的形式表示出来,记为 W 。
2. 把 W 的每一列元素加起来得到 N 个数,把它们放在对角线上(其他地方都是零),组成一个 N * N的矩阵,记为 D 。并令 L = D-W 。
3. 求出 L 的前 k 个特征值,以及对应的特征向量。
4. 把这 k 个特征(列)向量排列在一起组成一个 N * k 的矩阵,将其中每一行看作 k 维空间中的一个向量,并使用 K-means 算法进行聚类。聚类的结果中每一行所属的类别就是原来 Graph 中的节点亦即最初的N 个数据点分别所属的类别。
简单抽象谱聚类过程,主要有两步:
1. 构图,将采样点数据构造成一张网图。
2. 切图,即将第一步构造出来的按照一定的切边准则,切分成不同的图,而不同的子图,即我们对应的聚类结果。

差不多了,累了,溜了溜了,see u next time

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
深度嵌入图像聚类算法、深度无监督图像聚类算法和深度子空间图像聚类算法都是图像聚类领域中比较常用的算法,它们的效率、复杂度、图像聚类程度和准确率有所不同: 1. 深度嵌入图像聚类算法:这类算法通常基于深度学习网络,先通过卷积神经网络提取图像特征,再将特征映射到低维空间中进行聚类。这类算法的优点是准确度高,但是计算复杂度较高,需要大量的计算资源和时间。例如,基于自编码器的图像聚类算法和基于深度卷积自编码器的图像聚类算法等。 2. 深度无监督图像聚类算法:这类算法通常采用无监督学习方法,通过学习数据的潜在表示来实现图像聚类。这类算法的优点是不需要人工标注数据,适合大规模图像聚类,并且计算复杂度较低,但是准确度相对较低。例如,基于变分自编码器的图像聚类算法和基于对比损失的图像聚类算法等。 3. 深度子空间图像聚类算法:这类算法假设图像数据分别来自于不同的子空间,通过学习子空间结构实现聚类。这类算法的优点是适合处理高维数据,对噪声和异常点具有一定的鲁棒性,但是计算复杂度较高。例如,基于谱聚类的图像聚类算法和基于子空间聚类的图像聚类算法等。 因此,选择哪种算法需要根据具体的应用场景和需求来确定。对于大规模图像聚类,可以选择深度无监督图像聚类算法;对于需要高准确度的图像聚类,可以选择深度嵌入图像聚类算法;而对于需要处理高维数据和噪声数据的情况,可以考虑使用深度子空间图像聚类算法

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值