论文阅读10——《Adversarially regularized joint structured clustering network》

是聚类让我们“聚类”,我整理了部分深度图聚类代码,希望大家多多支持(GitHub代码):A-Unified-Framework-for-Deep-Attribute-Graph-Clustering!❤️

原文地址:论文阅读10——《Adversarially regularized joint structured clustering network》

作者:Yachao Yang, Fujiao Ju, Yanfeng Sun, Junbin Gao, Baocai Yin

发表时间:2022年10月3日

论文地址:Adversarially regularized joint structured clustering network

创新

存在问题

作者认为之前的方法,如GAE、DAE、SDCN、IGAE等都是非正则化方法,主要采用GAE或GCN来提取图的嵌入,因此学习到的次优映射会导致隐藏嵌入无任何结构,在现实世界中处理含有噪声的图数据时容易造成性能不佳

解决方案

  1. 使用图自编码器深度自编码器结合,构造一个对抗正则化的联合聚类网络(AJSCN)。该框架通过将DAE学到的表示传递到GAE相应层,将GAE和DAE联合在一起,以缓解过度平滑问题
  2. 通过对抗性训练方案,使GAE学习到的潜在表示先验分布匹配,以避免潜在空间的任何结构自由
  3. 设计一种自监督互监督联合监督机制,自监督学习更紧凑的表征,互监督使不同表征更加一致

观点

  1. 最经典的嵌入拓扑信息方法可以追溯到局部保持投影(LPP)谱聚类:

    局部保持投影相关文章:

    《Enhenced and parameterless locality preserving projections for face recognition》

    《A novel process monitoring and fault detection approach based on statistics locality preserving projections》

    《Locality preserving projections》

    谱聚类相关文章:

    《Deep spectral clustering learning》

    《Large-scale spectral clustring on graphs》

    《Deep spectral clustering usign dual autoencoder network》

  2. 重建邻接矩阵为目标的方法,很大程度上忽略了节点特征的表示

  3. 自编码器可以有效地将数据通过非线性变换转化到低维空间

模型

在这里插入图片描述

数据特征学习模块

在这里插入图片描述
该部分可以说与之前的文章(类似SDCN结构的文章)相比没有任何变化,同样是通过重建 X X X来计算重建损失
L d a t a = 1 2 N ∥ X − X ^ ∥ F 2 \mathscr{L}_{data}=\frac{1}{2N}\| X-\hat{X}\|_F^2 Ldata=2N1XX^F2

对抗图嵌入模块

在这里插入图片描述
从上面的图可以看出,GAE部分仍然使用SDCN中GCN模块,然后通过计算嵌入表示 Z Z Z内积来获得重建邻接矩阵,这在之前的文章中也有同样的方法。
A ^ i j = sigmoid ( Z i ⊤ Z j ) \hat{A}_{ij}=\text{sigmoid}(Z_i^\top Z_j) A^ij=sigmoid(ZiZj)
邻接矩阵的重建损失:
L 1 = ∑ i = 1 N ∑ j = 1 N loss ( A i j , A ^ i j ) \mathscr{L}_1=\sum\limits_{i=1}^N\sum\limits_{j=1}^N \text{loss}(A_{ij}, \hat{A}_{ij}) L1=i=1Nj=1Nloss(Aij,A^ij)
上述体系结构是一种非正则化的嵌入方法,主要侧重于保持数据的结构,它忽略了潜在嵌入的数据分布,导致了较差的表示。从而作者添加了一个对抗性正则化来学习一个鲁棒的潜在表示。在对抗性框架中,作者将上面图中的GCN结构视为生成器 G ( X , A , H ) \mathscr{G}(X,A,H) G(X,A,H),模型图中的绿线表示一个转换操作,在GCN产生输出以后,为了获得数据的结构信息,对其进行转置操作(这个操作由于本人才疏学浅,属实没有理解其中的原理),增强隐层的结构信息表示
Z ^ = A Z \hat{Z}=AZ Z^=AZ
准换后的 Z ^ \hat{Z} Z^包含更多结构信息。对于给定的潜在变量的分布,判别器 D ( Z ^ ) \mathscr{D}(\hat{Z}) D(Z^)学习判别潜在变量是来自先验分布还是图自编码器

损失函数:
L 2 = min ⁡ G max ⁡ D E Z ^ ∼ p ( z ) [ log ⁡ D ( Z ^ ) ] + E X ∼ p ( X ) [ log ⁡ ( 1 − D ( G ( X , A , H ) ) ) ] \mathscr{L}_2=\min_\mathscr{G}\max_\mathscr{D}\mathbb{E}_{\hat{Z}\sim p(z)}[\log\mathscr{D}(\hat{Z})] + \mathbb{E}_{X\sim p(X)}[\log(1-\mathscr{D}(\mathscr{G}(X,A,H)))] L2=GminDmaxEZ^p(z)[logD(Z^)]+EXp(X)[log(1D(G(X,A,H)))]
为了获得更好的图嵌入,在一个统一的框架中联合优化GAE和对抗性正则化,损失函数如下:
L a d v = α 1 L 1 + α 2 L 2 \mathscr{L}_{adv}=\alpha_1\mathscr{L}_1+\alpha_2\mathscr{L}_2 Ladv=α1L1+α2L2

联合监督模块

在这里插入图片描述

该部分包括两个机制:自监督机制和互监督机制。

通过学生 t t t分布分别计算 H H H Z Z Z的目标分布 Q H Q_H QH Q Z Q_Z QZ,以及辅助分布 P H P_H PH P Z P_Z PZ

优化H的损失函数:
L 3 = K L ( P H ∥ Q H ) = ∑ i ∑ j P h ∣ i j ⋅ log ⁡ P h ∣ i j Q h ∣ i j \mathscr{L}_3=KL(P_H\|Q_H)=\sum\limits_i\sum\limits_j P_{h|ij}\cdot\log\frac{P_{h|ij}}{Q_{h|ij}} L3=KL(PHQH)=ijPhijlogQhijPhij
类似地,优化 Z Z Z的损失函数:
L 4 = K L ( P Z ∥ Q Z ) = ∑ i ∑ j P z ∣ i j ⋅ log ⁡ P z ∣ i j Q z ∣ i j \mathscr{L}_4=KL(P_Z\|Q_Z)=\sum\limits_i\sum\limits_j P_{z|ij}\cdot\log\frac{P_{z|ij}}{Q_{z|ij}} L4=KL(PZQZ)=ijPzijlogQzijPzij
然后使用互监督机制,用 P H P_H PH监督 Q Z Q_Z QZ,使 H H H Z Z Z在训练过程中趋于一致:
L 5 = K L ( P H ∥ Q Z ) = ∑ i ∑ j P h ∣ i j ⋅ log ⁡ P h ∣ i j Q z ∣ i j \mathscr{L}_5=KL(P_H\|Q_Z)=\sum\limits_i\sum\limits_j P_{h|ij} \cdot\log\frac{P_{h|ij}}{Q_{z|ij}} L5=KL(PHQZ)=ijPhijlogQzijPhij
总的聚类损失:
L c l u = L 3 + α 3 L 4 + α 4 L 5 \mathscr{L}_{clu}=\mathscr{L}_3+\alpha_3\mathscr{L}_4+\alpha_4\mathscr{L}_5 Lclu=L3+α3L4+α4L5
总的损失函数:
L l o s s = L d a t a + L a d v + L c l u \mathscr{L}_{loss}=\mathscr{L}_{data}+\mathscr{L}_{adv}+\mathscr{L}_{clu} Lloss=Ldata+Ladv+Lclu
与其他文章中不同的是,该方法将自编码器的目标分布 Q H Q_H QH作为聚类结果,取其中最大的一个概率的索引作为该类的标签。
r i = arg ⁡ max ⁡ j Q h ∣ i j r_i=\arg\max_jQ_{h|ij} ri=argjmaxQhij

实验

伪代码

在这里插入图片描述

实验结果

在这里插入图片描述在这里插入图片描述
在这里插入图片描述

结果分析

  1. 基于AE算法的性能由于基于GCN的算法,因为KNN图不能准确地描述样本之间的关系

结论

作者提出了一种新的对抗正则化联合结构聚类网络(AJSCN)。 为了避免嵌入的自由结构,它被强制遵循一个先验分布。 对于聚类任务,构造了一个联合监督机制,其中包括学习更紧密表示的自我监督和使不同表示趋于一致的相互监督。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小吴不会敲代码吧

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值