【深度学习】图深度学习入门(一)

目录

roadmap

Tasks、dataset and benchmark

Spatial-based GNN

NN4G(Neural Networks for Graph)

DCNN(Diffusion-Convolution Neural Network)

GraphSage

GAT (Graph Attention Networks)

GIN(Graph Isomorphism Network)

Graph Signal Processing and Spectral-based GNN


roadmap

边代表两个节点有关系,节点有节点的性质,边有边的性质。

考虑entity本身的feature,也要考虑entity与其他entity之间的关系——GNN

 类比CNN,是有一个kernel在滑动做计算,得到feature map(用它的邻居来update feature map),那么如何将方法使用在GNN上呢?

fourier domain\ filter response\ inter fourier transition. (一堆听不懂的名词)

spatial-based目前是主流,spectral比较难。

Tasks、dataset and benchmark

Spatial-based GNN

回顾一下CNN的计算

再来看Sptial-based Convolution

H03, 第3个node,在第0层的特征。如何从H03 update 到H13呢?

当计算H03时,利用邻居来update。

将所有的节点结合起来——Readout,变成代表这个graph的feature。

NN4G(Neural Networks for Graph)

输入的是5个节点的图——> embedding(h03)——> 隐层节点update。

如何update?将邻居的东西都加起来,再加上原本input的feature x3

 

readout

每一层先加起来,全部加起来后再经过transform,变成一个feature y。

DCNN(Diffusion-Convolution Neural Network)

w13这一层,计算:跟3这个节点,距离是2的节点,全部加起来,都是加的输入层;

w03这一层,计算:跟3这个节点,距离是1的节点,全部加起来,都是加的输入层;

都是加的输入层!!!如果叠k层,就可以看到k nerborhood里的东西;

第一个节点的特征拉出来,

MoNET(Mixture Model Networks)

利用节点的度去衡量边的权重关系,而不仅仅是简单sum;

weight矩阵是根据节点的度计算出的。

GraphSage

对邻居的feature全部sum做mean or max-pooling。利用lstm将邻居的feature喂到lstm里,当隐藏层输出结果当作是output,用output来做update。

邻居不应该有任何顺序可言,lstm有顺序,所以可以随便产生顺序,希望可以学到没有任何顺序可言or忽略顺序的表达。

 

GAT (Graph Attention Networks)

重点:不仅要做weight sum,weight边的权重自己学习。对邻居做attention。

GIN(Graph Isomorphism Network)

证明上述理论可行的原因,以及什么情况work。

MLP(邻居+自己)就可以达到很好的效果。

 

Graph Signal Processing and Spectral-based GNN

(二)

 

 

 

主要来自:

https://www.bilibili.com/video/BV1G54y1971S?from=search&seid=6765103033419424943

GCN GAT GraphSage是最重要的3个。

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值