Graph Contrastive Learning via Interventional View Generation

发表于:WWW24
推荐指数: #paper/⭐⭐

框架与动机:

整体框架

文章配图

动机:

文章配图
如上四个:
b.HLCL 生成随机增强视图,并分别用高通过滤器和低通过滤器过滤
c.生成同配异配视图,都用低通过滤器
d.生成同配视图异配视图,同配视图用低通过滤器,异配视图用高通过滤器
通过图d,我们可以得出:d>c>b>a

流程:

1.视图生成模块
2.双对比学习编码模块.

具体流程

因果模型

我们利用反事实因果干涉取找到干涉和结果的因果关系通过问一个问题:图结构会因为干涉变得困难而改变吗?我们假设我们观测到的关系如图三所示,给定环境条件,我们干涉,和相应的输出,反事实干涉方法目标去找到影响结果的干涉.这里,节点 v i v_{i} vi v j v_{j} vj的信息是条件,表示为: ( z i , z j ) (z_{i},z_{j}) (zi,zj).我们表示被观测得到的邻接矩阵 A A A的值作为事实结果输出,并用 A C F A^{CF} ACF表示未观测到的矩阵作为反事实结果.我们表示二元干涉矩阵为: T ∈ { 0 , 1 } n × n T \in\{0,1\}^{n \times n} T{0,1}n×n.其意为对节点对 ( v i , v j ) (v_{i},v_{j}) (vi,vj)的干涉.相应的,反事实干涉矩阵可以表示为: T C F T^{CF} TCF,其中, T i j C F = 1 − T T_{ij}^{CF}=1-T TijCF=1T
文章配图

可训练的变量

我们定义干涉 T i j T_{ij} Tij为节点 v i , v j v_{i},v_{j} vi,vj的同配性. T i j = 1 T_{ij}=1 Tij=1,表示ij两个点是相似的.我们定义 c : V → N c:V\to N c:VNb表示为一个划分策略依赖于节点环境信息.我们认为同配比是两个节点有相同的划分.即: T i j = 1  if  c ( v i ) = c ( v j ) T_{ij}=1 \text{ if }c(v_{i})=c(v_{j}) Tij=1 if c(vi)=c(vj).

反事实结果

由于对每一个节点对,我们只能观测事实干涉和相应的结果.节点对使用反干涉的关系是未知的.因此,我们将反事实结果通过最近的观测环境(条件)去估计.即:给定观测到的节点对集,我们的目标是找到他们的最近邻居通过反干涉,视他们为反事实节点对.每个节点对,我们可以定义反事实关系为:
( v a , v b ) = arg ⁡ max ⁡ v a , v b ∈ V [ s ( ( v i , v j ) , ( v a , v b ) ) ∣ T a b = 1 − T i j ] (v_a,v_b)=\arg\max_{v_a,v_b\in\mathcal{V}}\left[s((v_i,v_j),(v_a,v_b))|T_{ab}=1-T_{ij}\right] (va,vb)=argva,vbVmax[s((vi,vj),(va,vb))Tab=1Tij]
其中s是环境的相似性测量.最终,我们引导节点比较去实现环境比较.即:我们评估每对结点的反事实结果为:
( v a , v b ) = arg ⁡ max ⁡ v a , v b ∈ V [ s ( x ~ i , x ~ a ) + s ( x ~ j , x ~ b ) ∣ T a b = 1 − T i j ] , (v_a,v_b)=\arg\max_{v_a,v_b\in V}[s(\tilde{\mathbf{x}}_i,\tilde{\mathbf{x}}_a)+s(\tilde{\mathbf{x}}_j,\tilde{\mathbf{x}}_b)\mid T_{ab}=1-T_{ij}], (va,vb)=argva,vbVmax[s(x~i,x~a)+s(x~j,x~b)Tab=1Tij],
具体的是,s是相似性函数,节点嵌入 X ~ \tilde{X} X~通过拼接节点原始特征和他们的结构特征(通过node2vec)得到.这会更少的被同配性所影响.
最终,我们得到反事实干干涉结果 A C F A^{CF} ACF
A i j C F = { A a b , if  ∃ ( v a , v b ) ∈ V × V  satisfies Eq. (6); A i j , otherwise. A_{ij}^{CF}=\begin{cases}A_{ab}&\text{, if }\exists(v_a,v_b)\in\mathcal{V}\times\mathcal{V}\text{ satisfies Eq. (6);}\\A_{ij}&\text{, otherwise.}\end{cases} AijCF={AabAij, if (va,vb)V×V satisfies Eq. (6);, otherwise.

干涉视图生成

通过干涉和反事实结果的引导,我们现在可以学习到干涉视图生成器.这可以通过可训练干涉变量去控制生成增强图.给定表征Z通过GCL Encoder以及干涉指示器 T T T/ T C F T^{CF} TCF,我们可以生成同配干涉视图 A ^ \hat{A} A^以及异配干涉视图: A ^ C F \hat{A}^{CF} A^CF
A ^ = g θ ( Z , T ) , A ^ C F = g θ ( Z , T C F ) , \widehat{A}=g_\theta(Z,T),\quad\widehat{A}^{CF}=g_\theta(Z,T^{CF}), A =gθ(Z,T),A CF=gθ(Z,TCF),
g θ g_{\theta} gθ表示视图生成器.我们通过经验采用了一个简单的鹅多层感知机:
A i j ^ = M L P θ ( [ z i ⊙ z j , T i j ] ) , A ^ i j C F = M L P θ ( [ z i ⊙ z j , T i j C F ] ) \widehat{A_{ij}}=\mathsf{MLP}_\theta([\mathbf{z}_i\odot\mathbf{z}_j,T_{ij}]),\quad\widehat{A}_{ij}^{CF}=\mathsf{MLP}_\theta([\mathbf{z}_i\odot\mathbf{z}_j,T_{ij}^{CF}]) Aij =MLPθ([zizj,Tij]),A ijCF=MLPθ([zizj,TijCF])
其中, ⊙ \odot 表示hadamard积, [ ⋅ , ⋅ ] [\cdot,\cdot] [,]表示向量拼接.A内元素的范围都在[0,1]之间. A i j ^ → 1 \hat{A_{ij}}\to 1 Aij^1表示很强的同配性, A i j C F ^ → 1 \hat{A_{ij}^{CF}}\to 1 AijCF^1表示很强的异配性

高通低通滤波器

低通滤波器:
Z l h o m o = A ~ Z l − 1 h o m o W l − 1 l o w , a n d Z 0 h o m o = X Z_l^{\boldsymbol{homo}}=\tilde{A} Z_{\boldsymbol{l}-1}^{\boldsymbol{homo}} W_{\boldsymbol{l}-1}^{\boldsymbol{low}},\quad\mathrm{and} Z_0^{\boldsymbol{homo}}=X Zlhomo=A~Zl1homoWl1low,andZ0homo=X
即: Z h o m o = f ϕ l o w ( X , A ^ ) Z^{\boldsymbol{homo}}=f_{\phi}^{\boldsymbol{low}}(X,\widehat{A}) Zhomo=fϕlow(X,A )
高通滤波器:
Z l h e t e r = ( I − α A ~ C F ) Z l − 1 h e t e r W l − 1 h i g h , a n d Z 0 h e t e r = X Z_{l}^{\boldsymbol{heter}}=(I-\alpha\tilde{A}^{\boldsymbol{CF}}) Z_{\boldsymbol{l-1}}^{\boldsymbol{heter}} W_{\boldsymbol{l-1}}^{\boldsymbol{high}},\quad\mathrm{and} Z_{0}^{\boldsymbol{heter}}=X Zlheter=(IαA~CF)Zl1heterWl1high,andZ0heter=X
其中, A ~ C F \tilde{A}^{CF} A~CF即为正则化的 A ^ C F \hat{A}^{CF} A^CF, α \alpha α是平衡超参.

视图生成优化

主要分为两个部分:视图损失最小化,以及同配比异配比和为1
L F = E i , j ∼ V [ A i j ⋅ log ⁡ A ^ i j + ( 1 − A i j ) ⋅ log ⁡ ( 1 − A ^ i j ) ] , \mathcal{L}_{F}=\mathbb{E}_{i,j\thicksim\mathcal{V}}\big[A_{ij}\cdot\log\widehat{A}_{ij}+(1-A_{ij})\cdot\log(1-\widehat{A}_{ij})\big], LF=Ei,jV[AijlogA ij+(1Aij)log(1A ij)], L C F = E i , j ∼ V [ A i j C F ⋅ log ⁡ A ^ i j C F + ( 1 − A i j C F ) ⋅ log ⁡ ( 1 − A ^ i j C F ) ] . \mathcal{L}_{CF}=\mathbb{E}_{i,j\thicksim\mathcal{V}}\big[A_{ij}^{CF}\cdot\log\widehat{A}_{ij}^{CF}+(1-A_{ij}^{CF})\cdot\log(1-\widehat{A}_{ij}^{CF})\big]. LCF=Ei,jV[AijCFlogA ijCF+(1AijCF)log(1A ijCF)].
L r e g = E i , j ∼ V ∣ ∣ 1 − A ^ i j − A ^ i j C F ∣ ∣ \mathcal{L}_{\mathrm{reg}}=\mathbb{E}_{i,j\thicksim\mathcal{V}}||1-\widehat{A}_{ij}-\widehat{A}_{ij}^{CF}|| Lreg=Ei,jV∣∣1A ijA ijCF∣∣
最终,视图生成器 g θ g_{\theta} gθ的优化可以写为:

min ⁡ θ L F + L C F + L r e g . \min_\theta\mathcal{L}_F+\mathcal{L}_{CF}+\mathcal{L}_{\mathrm{reg}}. minθLF+LCF+Lreg.

对比损失:

min ⁡ ϕ , ψ E i ∼ V , j ∈ N i ′ [ L G C L ( z i h e t e r , z j h o m o ) + L G C L ( z i h o m o , z j h e t e r ) ] \min_{\phi,\psi}\mathbb{E}_{i\thicksim\mathcal{V},j\in N_i^{\prime}}[\mathcal{L}_{\mathrm{GCL}}(\mathbf{z}_i^{heter},\mathbf{z}_j^{homo})+\mathcal{L}_{\mathrm{GCL}}(\mathbf{z}_i^{homo},\mathbf{z}_j^{heter})] ϕ,ψminEiV,jNi[LGCL(ziheter,zjhomo)+LGCL(zihomo,zjheter)]

  • 25
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值