【论文笔记】通过自注意力机制的动态图表示

本专题的论文笔记基本作为草稿记录,好方便查阅,可能没有那么详细。
论文地址1
论文地址2

模型结构

主要分为两个部分,structural and temporal self-attention layers。
使用muliti-head attentions to improve model capacity and stability。

结构化模块提取领域邻居信息节点来作为输入表示到时间模块。时间模块来捕获时间变化。
在这里插入图片描述

  1. STRUCTURAL SELF-ATTENTION
    输入为节点表示集合, x v ∈ R D x_v\in R^D xvRD,D为输入embedding维度,采用one-hot编码。输出为心得节点表示。 z v ∈ R F z_v \in R^F zvRF,F维度得到了局部结构特性。
    结构化注意力层是GAT的变体,用于每个快照上。
    在这里插入图片描述
    权重向量参数作为注意力函数的前馈层,||是concatenation操作, A u v A_{uv} Auv是连接uv的权重。
  2. TEMPORAL SELF-ATTENTION
    输入为特定节点再不同时间的序列表示。在这里插入图片描述
    输出为新的表示序列 z v z_v zv,再通过两个矩阵 X v ∈ R T × R ′ , Z v ∈ R T × F ′ X_v \in R^{T \times R^{'}},Z_v \in R^{T \times F^{'}} XvRT×R,ZvRT×F将输入和输出打包。本模块就是来捕捉图结构在时间上的变化。
    在这里插入图片描述
  3. MULTI-HEAD ATTENTION
    在这里插入图片描述
  4. DYSAT ARCHITECTURE
    整个体系架构有三个模块
    (1) structural attention block, (2) temporal attention block, and (3) graph context prediction.
    1)在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
3目标函数,它在多个时间步骤中保留节点周围的局部结构
在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值