论文题目:Graph Contrastive Clustering
Summary
- 传统的无监督表征学习没有考虑到聚类的类别信息和聚类目标之间的联系,因此学习得到的表征往往是不充足的和性能受限的。且传统的对比学习方式都是仅仅将原始数据和数据增强之间看做正对,本文考虑其实属于同一个簇里面的样本都可以看作是正对,因此最终演化为最大化簇间距离,最小化簇内距离。论文将图像进行编码,得到每个图像的特征向量,利用KNN进行构图,构图之后从图节点的角度构建损失函数。
- 传统对比学习和本文之间进行对比如下:
Problem Statement
- 作者旨在通过改进聚类损失函数,将表征学习和聚类结合起来,提升聚类的效果。
Method
- 利用高斯核函数计算相似度,利用KNN进行构图
- 第一损失函数:图中连接的节点应该是越相似,而没有边连接的节点之间应该是越不相似:
- 第二损失函数:对邻居进行随机采样,构建邻居特征矩阵,类别(列)之间构建相似度:
- 第三损失函数:正则化项,防止网络平凡解
- 整个网络模型图:
Evaluation
- 无监督图像聚类,评估指标如下:
- Accuracy (ACC)
- Normalized Mutual Information (NMI)
- Adjusted Rand Index (ARI)
Conclusion
- 基于实例的聚类损失函数和基于聚类簇的损失函数结合起来,可以提升网络的聚类性能。
Notes
- 论文开头讲述自己的方法和别人方法区别的模型图。
- 简介中每一段列举别人的方法,介绍完之后讲述这些方法的不足之处,以及自己如何攻破这些不足之处。
References
- Self-supervised co-training for video representation learning.
- Visualizing data using t-sne.
- Deep robust clustering by contrastive learning.
- Local aggregation for unsupervised learning of visual embeddings.
- Scan: Learning to classify images without labels.
- Deep semantic clustering by partition confidence maximisation.