多视角多对学习方式的相关论文解读

目标解决问题:
1;地理分布的空气质量和天气站是异质的空间对象,它们监测的条件不同。现有的方法通常设计用于同质的空间对象,不适合联合预测。
2;观察误差累积:监测站的观测数据往往因传感器误差和环境干扰而噪声较大,联合建模可能会导致误差在时空域的累积。

必要操作:

一;由于两个数据来源于两种不同的数据类型,

用类型特定的转换层将异质观测投影到统一的特征空间中
转换过程:
-给定一个监测站 s i {s_i} si,其观测数据表示为 x i {x_i} xi
-根据监测站的类型(例如,空气质量监测站或天气监测站),选择对应的转换矩阵 W ψ ( i ) W_{\psi(i)} Wψ(i)
这里 ψ ( i ) {\psi(i)} ψ(i) 是一个映射函数,用于标识监测站的类型。
-使用转换矩阵 W ψ ( i ) {W_{\psi_{(i)}}} Wψ(i)对观测数据进行线性变换,将其投影到统一的特征空间中。变换后的特征向量表示为 x ~ i {\tilde{x}_i} x~i ,其计算公式如下:
x ~ i = W ψ ( i ) x i {\tilde{x}_i = W_{\psi(i)} x_i} x~i=Wψ(i)xi
其中, W ψ ( i ) {W_{\psi(i)}} Wψ(i)是一个可训练的权重矩阵,其维度为 ∣ x i ∣ × d {\lvert x_i \rvert \times d} xi×d,其中 ∣ x i ∣ {\lvert x_i \rvert} xi是原始观测数据的维度, d d d 是统一特征空间的维度。

二;在不同性质的预测模型里分配注意力权重

注意力机制通过在不同的站点之间分配不同的权重来预测,从而更好地捕捉不同站点之间的非线性相关性。
在异质图中,不同类型的监测站和它们的观测数据具有不同的特性,需要类型依赖的注意力机制来分别处理。

  • 假设有两个监测站 s i s_i si s j s_j sj,分别对应转换后的特征向量 x ~ i \tilde{x}_i x~i x ~ j \tilde{x}_j x~j
  • 它们的环境上下文特征分别为 c i c_i ci c j c_j cj
利用以上可以计算注意力评分

采用一种基于连接的注意力函数(Attention Function),计算站点 s i s_i si s j s_j sj之间的注意力得分。注意力得分反映了 s j s_j sj s i s_i si的重要性。

注意力得分的计算公式如下:
α i j = ∑ k ∈ N i exp ⁡ ( Attn ( x ~ i , x ~ k , c i , c k , d i k ) ) exp ⁡ ( Attn ( x ~ i , x ~ j , c i , c j , d i j ) ) {\alpha_{ij} = \sum_{k \in N_i} \frac{\exp(\text{Attn}(\tilde{x}_i, \tilde{x}_k, c_i, c_k, d_{ik}))}{\exp(\text{Attn}(\tilde{x}_i, \tilde{x}_j, c_i, c_j, d_{ij}))}} αij=kNiexp(Attn(x~i,x~j,ci,cj,dij))exp(Attn(x~i,x~k,ci,ck,dik))
其中, Attn ( ⋅ ) {\text{Attn}(\cdot)} Attn()表示注意力函数, N i r {N_{ir}} Nir是类型 r r r的邻居站点集合。

注意力函数(Attention Function):
使用一个连接操作(concatenation)结合特征向量和上下文特征,然后通过一个前馈神经网络计算注意力得分:
Attn ( x ~ i , x ~ j , c i , c j , d i j ) = LeakyReLU ( a T [ W θ x ~ i ∥ W θ x ~ j ∥ W ϕ c i ∥ W ϕ c j ∥ W δ d i j ] ) \text{Attn}(\tilde{x}_i, \tilde{x}_j, c_i, c_j, d_{ij}) = \text{LeakyReLU}\left(a^T \left[ W_\theta \tilde{x}_i \parallel W_\theta \tilde{x}_j \parallel W_\phi c_i \parallel W_\phi c_j \parallel W_\delta d_{ij} \right] \right) Attn(x~i,x~j,ci,cj,dij)=LeakyReLU(aT[Wθx~iWθx~jWϕciWϕcjWδdij])
其中, ∥ {\parallel} 表示连接操作, α \alpha α是一个可训练的权重向量, W θ , W ϕ , W δ W_\theta, \quad W_\phi, \quad W_\delta Wθ,Wϕ,Wδ是可训练的权重矩阵。

上下文感知异质图卷积操作: \textcolor{red}{上下文感知异质图卷积操作:} 上下文感知异质图卷积操作:
基于计算的注意力得分,定义上下文感知的异质图卷积操作来更新站点的表示:
x ~ i ( r ) = G C o n v ( x ~ i , r ) = σ ( ∑ j ∈ N i ( r ) α i j W r x ~ j ) {\tilde{x}_i^{(r)} = GConv(\tilde{x}_i, r) = \sigma\left(\sum_{j \in N_i^{(r)}} \alpha_{ij} W^r \tilde{x}_j\right)} x~i(r)=GConv(x~i,r)=σ(jNi(r)αijWrx~j)
其中, x ~ i ( r ) {\tilde{x}_i^{(r)}} x~i(r)是基于边类型 r r r聚合后的节点表示, σ \sigma σ是一个非线性激活函数, W r { W^r } Wr是边类型 r r r的可训练权重矩阵。
最终表示的组合: \textcolor{red}{最终表示的组合:} 最终表示的组合:
将不同边类型 r r r的聚合表示进行连接,形成最终的站点表示:
x ~ i ′ = ∑ r ∈ Ψ G C o n v ( x ~ i , r ) {\tilde{x}_i' = \sum_{r \in \Psi} GConv(\tilde{x}_i, r)} x~i=rΨGConv(x~i,r)

  • 15
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值