GAN理论:

 1.GAN基本介绍

 GAN在更新1号节点的信息时,根据其相邻节点的特征对其重要程度的大小,设置不同权重值,对1号节点进行更新。hi和hj先乘以W权重参数进行特征映射,然后将这两个节点进行相似度计算(相乘),在利用attention(函数)计算,得出j节点对节点的注意力值大小。 计算attention有不同的方法。

2.计算注意力机制的不同方法

 先利用权重参数矩阵,将其进行特征映射,映射成(16*1)的向量,再乘以【16*1】的全连接层,将其变为一个权重值。

 注意力机制本质是加在邻阶矩阵上的,对邻阶矩阵进行加权,masked attention用来只对对应位置上的邻阶矩阵进行加权操作,例如1-3 之间的注意力值加在邻阶矩阵中对应1-3位置上。 

 每个节点的权重值,都是将其相邻节点的加上权重值后,进行求和更新该节点的信息。

3.TCN(T-GNN)

 图在 每时每刻发什么变化,包括每个节点和图的结构,因此必须考虑到不同时刻图之间的关联。

 

 

 

 

 

TGNN核心思想:首先通过GNN对图进行重构,在通过RNN将不同时刻的图进行关联。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值