目标解决问题:
1;地理分布的空气质量和天气站是异质的空间对象,它们监测的条件不同。现有的方法通常设计用于同质的空间对象,不适合联合预测。
2;观察误差累积:监测站的观测数据往往因传感器误差和环境干扰而噪声较大,联合建模可能会导致误差在时空域的累积。
必要操作:
一;由于两个数据来源于两种不同的数据类型,
用类型特定的转换层将异质观测投影到统一的特征空间中
转换过程:
-给定一个监测站
s
i
{s_i}
si,其观测数据表示为
x
i
{x_i}
xi。
-根据监测站的类型(例如,空气质量监测站或天气监测站),选择对应的转换矩阵
W
ψ
(
i
)
W_{\psi(i)}
Wψ(i)
这里
ψ
(
i
)
{\psi(i)}
ψ(i) 是一个映射函数,用于标识监测站的类型。
-使用转换矩阵
W
ψ
(
i
)
{W_{\psi_{(i)}}}
Wψ(i)对观测数据进行线性变换,将其投影到统一的特征空间中。变换后的特征向量表示为
x
~
i
{\tilde{x}_i}
x~i ,其计算公式如下:
x
~
i
=
W
ψ
(
i
)
x
i
{\tilde{x}_i = W_{\psi(i)} x_i}
x~i=Wψ(i)xi
其中,
W
ψ
(
i
)
{W_{\psi(i)}}
Wψ(i)是一个可训练的权重矩阵,其维度为
∣
x
i
∣
×
d
{\lvert x_i \rvert \times d}
∣xi∣×d,其中
∣
x
i
∣
{\lvert x_i \rvert}
∣xi∣是原始观测数据的维度,
d
d
d 是统一特征空间的维度。
二;在不同性质的预测模型里分配注意力权重
注意力机制通过在不同的站点之间分配不同的权重来预测,从而更好地捕捉不同站点之间的非线性相关性。
在异质图中,不同类型的监测站和它们的观测数据具有不同的特性,需要类型依赖的注意力机制来分别处理。
- 假设有两个监测站 s i s_i si和 s j s_j sj,分别对应转换后的特征向量 x ~ i \tilde{x}_i x~i和 x ~ j \tilde{x}_j x~j
- 它们的环境上下文特征分别为 c i c_i ci和 c j c_j cj
利用以上可以计算注意力评分
采用一种基于连接的注意力函数(Attention Function),计算站点 s i s_i si和 s j s_j sj之间的注意力得分。注意力得分反映了 s j s_j sj对 s i s_i si的重要性。
注意力得分的计算公式如下:
α
i
j
=
∑
k
∈
N
i
exp
(
Attn
(
x
~
i
,
x
~
k
,
c
i
,
c
k
,
d
i
k
)
)
exp
(
Attn
(
x
~
i
,
x
~
j
,
c
i
,
c
j
,
d
i
j
)
)
{\alpha_{ij} = \sum_{k \in N_i} \frac{\exp(\text{Attn}(\tilde{x}_i, \tilde{x}_k, c_i, c_k, d_{ik}))}{\exp(\text{Attn}(\tilde{x}_i, \tilde{x}_j, c_i, c_j, d_{ij}))}}
αij=∑k∈Niexp(Attn(x~i,x~j,ci,cj,dij))exp(Attn(x~i,x~k,ci,ck,dik))
其中,
Attn
(
⋅
)
{\text{Attn}(\cdot)}
Attn(⋅)表示注意力函数,
N
i
r
{N_{ir}}
Nir是类型
r
r
r的邻居站点集合。
注意力函数(Attention Function):
使用一个连接操作(concatenation)结合特征向量和上下文特征,然后通过一个前馈神经网络计算注意力得分:
Attn
(
x
~
i
,
x
~
j
,
c
i
,
c
j
,
d
i
j
)
=
LeakyReLU
(
a
T
[
W
θ
x
~
i
∥
W
θ
x
~
j
∥
W
ϕ
c
i
∥
W
ϕ
c
j
∥
W
δ
d
i
j
]
)
\text{Attn}(\tilde{x}_i, \tilde{x}_j, c_i, c_j, d_{ij}) = \text{LeakyReLU}\left(a^T \left[ W_\theta \tilde{x}_i \parallel W_\theta \tilde{x}_j \parallel W_\phi c_i \parallel W_\phi c_j \parallel W_\delta d_{ij} \right] \right)
Attn(x~i,x~j,ci,cj,dij)=LeakyReLU(aT[Wθx~i∥Wθx~j∥Wϕci∥Wϕcj∥Wδdij])
其中,
∥
{\parallel}
∥表示连接操作,
α
\alpha
α是一个可训练的权重向量,
W
θ
,
W
ϕ
,
W
δ
W_\theta, \quad W_\phi, \quad W_\delta
Wθ,Wϕ,Wδ是可训练的权重矩阵。
上下文感知异质图卷积操作:
\textcolor{red}{上下文感知异质图卷积操作:}
上下文感知异质图卷积操作:
基于计算的注意力得分,定义上下文感知的异质图卷积操作来更新站点的表示:
x
~
i
(
r
)
=
G
C
o
n
v
(
x
~
i
,
r
)
=
σ
(
∑
j
∈
N
i
(
r
)
α
i
j
W
r
x
~
j
)
{\tilde{x}_i^{(r)} = GConv(\tilde{x}_i, r) = \sigma\left(\sum_{j \in N_i^{(r)}} \alpha_{ij} W^r \tilde{x}_j\right)}
x~i(r)=GConv(x~i,r)=σ(∑j∈Ni(r)αijWrx~j)
其中,
x
~
i
(
r
)
{\tilde{x}_i^{(r)}}
x~i(r)是基于边类型
r
r
r聚合后的节点表示,
σ
\sigma
σ是一个非线性激活函数,
W
r
{ W^r }
Wr是边类型
r
r
r的可训练权重矩阵。
最终表示的组合:
\textcolor{red}{最终表示的组合:}
最终表示的组合:
将不同边类型
r
r
r的聚合表示进行连接,形成最终的站点表示:
x
~
i
′
=
∑
r
∈
Ψ
G
C
o
n
v
(
x
~
i
,
r
)
{\tilde{x}_i' = \sum_{r \in \Psi} GConv(\tilde{x}_i, r)}
x~i′=∑r∈ΨGConv(x~i,r)