子空间聚类的常见评估指标及pytorch实现


本文参考了本组的论文S3C-OMP的附录,代码部分摘自本组的SENet,未引用这两篇论文的转载是不被允许的

引言

在评估聚类效果的时候,常常使用NMI和ARI,即归一化互信息和调整兰德指数,但这两个指标是以结果为导向的,无论采用了何种聚类方式。但NMI和ARI只能告诉你聚类结果好不好,却无法知道你的聚类方法是否在有效工作。

在目前最流行的子空间聚类方法中,我们是通过构造coeff矩阵C来得到affinty A,之后通过谱聚类(spectral clustering)得到partition Q。子空间聚类已被证明和self-attention机制是密切相关的,因此是高效的,但也具有和self-attention一样的平方复杂度缺陷。

要了解子空间聚类是否真的在有效工作,就要评估系数矩阵C,这便是SRE和CONN这两个指标。,如接下来所介绍的那样。

Evaluation Metrics

聚类准确度(Clustering accuracy, ACC)

相比于有标签的准确度,聚类准确度的计算更加麻烦些,它是依据ground truth和分割矩阵Q来计算的。在实践中,ACC的好坏与否与ARI指标高度相关。如果ACC不理想,想办法提高ARI先!

acc指标表示了预测结果和ground truth之间的差距:

在这里插入图片描述
其中,有个100倍的系数是因为输出是百分比值,est即为estimation的缩写,true就是ground truth。当第j个点属于第i个cluster时,这两个Q在第 ( i , j ) (i,j) (i,j)个元素为1,否则为0,也就是说Q的每行都是one-hot的。需要注意,其中 π \pi π表示n个cluster的组合,因为聚类得到的是伪标签,必须用如匈牙利算法把伪标签和ground truth最大匹配起来。

子空间保持误差 (SRE)

SRE有两种写法:Subspace Recovery Error和 Subspace-preserving Representation Error,但其实都表示一个意思,就是衡量了C的子空间保持性质,SRE越低说明了误差越小,连通的分量 c i j c_{ij} cij大都来自相同的子空间。
具体地,对于每个 c j c_j cj,我们计算它的来自其他子空间的 ℓ 1 \ell_1 1范数的分数,对所有 j j j做求和平均:
在这里插入图片描述
其中 w i j ∈ { 0 , 1 } w_{ij}\in \{0,1\} wij{0,1}为true affinity。

给出SRE的pytorch实现:

def subspace_preserving_error(A, labels, n_clusters): # that is, SRE
    one_hot_labels = torch.zeros([A.shape[0], n_clusters])
    for i in range(A.shape[0]):
        one_hot_labels[i][labels[i]] = 1.0
    mask = one_hot_labels.matmul(one_hot_labels.T)
    l1_norm = torch.norm(A, p=1, dim=1)
    masked_l1_norm = torch.norm(mask * A, p=1, dim=1)
    e = torch.mean((1. - masked_l1_norm / l1_norm)) * 100.
    return e

连通性 (Connectivity, CONN)

connectivity衡量了C的连通性。我们希望低的SRE,但是过低的SRE往往会让C过于稀疏而在谱聚类时产生过分割最终影响聚类结果,因此我们希望连通性要高点好:CONN度量了同一个cluster中C的稠密程度,即我们希望同一类中的尽量不要出现 c i j = 0 c_{ij}=0 cij=0

所以,显然SRE和CONN是一对矛盾的指标,CONN提高往往导致SRE变差,SRE降低往往导致CONN下降。子空间聚类方法好不好还要考虑到它能不能有效权衡SRE和CONN。实验也证明,只有CONN和SRE取得一个合理的balance的时候聚类精度才上得去。

不过,CONN的计算比较反直觉,这里介绍代数连通性(algebratic connectivity),它的定义是:归一化后的图拉普拉斯矩阵的第二小的特征值。对于一个无向权重图,权重为 W ∈ R N × N W\in\mathbb R^{N\times N} WRN×N和度矩阵 D = d i a g ( W ⋅ 1 ) D=diag(W\cdot 1) D=diag(W1),那么它的归一化图拉普拉斯为:
在这里插入图片描述
L L L的第二个eigen value λ 2 ∈ [ 0 , n − 1 n ] \lambda_2 \in [0,\frac{n-1}{n}] λ2[0,nn1]。为了评估具有n个cluster的affinity gpraph的连通性,我们计算每个n个子图的第二最小特征值,那么就得到了n个对应于第 i i i个cluster的特征值 { λ 2 ( i ) } i = 1 n \{\lambda_2^{(i)}\}_{i=1}^n {λ2(i)}i=1n。对于CONN有两种计算方法:取最小值或求平均值:
在这里插入图片描述
取最小值的话,实际中conn容易很小,比如 1 0 − 16 10^{-16} 1016量级,这个时候考虑取平均值:

在这里插入图片描述

小技巧:合成数据集上用最小值,真实数据集上用平均值

给出归一化图拉普拉斯的实现:

def normalized_laplacian(A): 
    D = torch.sum(A, dim=1)
    D_sqrt = torch.diag(1.0 / torch.sqrt(D))
    L = torch.eye(A.shape[0]) - D_sqrt.matmul(A).matmul(D_sqrt)
    return L

CONN的pytorch实现:

def connectivity(A, labels, n_clusters): # A is dense tensor
    c = []
    for i in range(n_clusters):
        A_i = A[labels == i][:, labels == i]
        L_i = normalized_laplacian(A_i)
        eig_vals, _ = torch.symeig(L_i)
        c.append(eig_vals[1])
    return np.min(c)

def sparse_connectivity(A, labels, n_clusters): # A is sparse tensor
    c = []
    for i in range(n_clusters):
        A_i = A[labels == i][:, labels == i]
        L_i = csgraph.laplacian(A_i) # L = D - W
        eig_vals, _ = sparse.linalg.eigsh(L_i, k=2, which='SA')
        eig_vals = sorted(eig_vals)
        c.append(eig_vals[1])
    return np.mean(c)
  • 5
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 9
    评论
在Scikit-learn库中,没有直接提供基于空间的k-means算法。然而,您可以使用Scikit-learn中的其他聚类算法来进行空间聚类。 一种常用的空间聚类方法是谱聚类(spectral clustering),它可以用于处理低维空间中的数据聚类问题。Scikit-learn库中提供了谱聚类算法的实现,可以通过使用`sklearn.cluster.SpectralClustering`来进行谱聚类。 使用谱聚类进行空间聚类的一般步骤如下: 1. 构建数据的相似度矩阵,例如计算数据点之间的欧氏距离或相关性。 2. 根据相似度矩阵构建拉普拉斯矩阵。 3. 对拉普拉斯矩阵进行特征值分解,得到特征向量。 4. 将特征向量作为新的低维表示,并使用传统聚类算法(如k-means)对新表示进行聚类。 下面是一个使用Scikit-learn中谱聚类算法进行空间聚类的示例代码: ``` from sklearn.cluster import SpectralClustering # 假设data是您的数据集,n_clusters是您希望聚类的簇数 spectral = SpectralClustering(n_clusters=n_clusters, affinity='nearest_neighbors') labels = spectral.fit_predict(data) ``` 需要注意的是,谱聚类算法的性能受到参数选择和相似度矩阵的构建方式的影响。您可能需要进行一些参数调整和实验,以获得最佳的聚类结果。 总结起来,虽然Scikit-learn库中没有直接提供基于空间的k-means算法,但您可以使用谱聚类算法来进行空间聚类

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值