DW_图深度学习_Task_2

DW_图深度学习_Task_2
学习内容:消息传递范式
学习地址: github/datawhalechina/team-learning-nlp/GNN/

本节的内容主要是了解和学习图神经网络生成节点表征的消息传递范式,学习内容以MessagePassing的实践为主。在这里,我们的内容更多的是倾向于消息传递范式本身的原理介绍。

定义

GNN是一个邻居聚合策略,一个节点的表示向量,由它的邻居节点通过循环的聚合和转移表示向量计算得来。即消息传递图神经网络遵循“聚合邻接节点信息来更新中心节点信息的过程”,来生成节点表征。

MPNN的消息传递和读出

MPNN共包含两个阶段:消息传递阶段和读出阶段。

  1. 消息传递阶段 :共运行T个时间步,并包含以下两个子函数:

     Aggregation Function:也称消息函数,作用是聚合邻居节点的特征,形成一个消息向量,准备传递给中心节点
     Combination Function:也称节点更新函数,作用是更新当前时刻的节点表示,组合当前时刻节点的表示以及从Aggregation Function中获得的消息
    

消息传送阶段实际上运行T步的空间图卷积. 图卷积操作通过消息函数 M t

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值