关于GNN与transfomer的关系

最近对GNN和transfomer的相关内容看的比较多,简单总结一下二者的区别和共同之处吧。

从 Transformer 来看,我们需要分别计算 Q(Query), K(Key), V, 然后使用 Q 和 K 来计算自注意力矩阵A,A矩阵代表了 token (节点或词)之间的相关性,使用计算 AV 来完成不同 token 之间的加权融合。

从 GNN 来看,使用消息传递机制来解释 GNN,每个中心节点与其邻居节点之间进行信息交互,邻居生成的消息通过边传给中心节点,然后进行 Aggregator 操作和 Update 操作。如果我们使用最简单的消息函数(I)和一层 Linear 作为 Updater,则 Y=AXW=AV。

从上面可以看到,其实 Transformer 和 GNN 的计算其实十分相似,主要区别在于A 的获取:Transformer 通过自注意力构建全连接图(A),而 GNN 则使用预先设定的 邻接矩阵。

总结:

图和Transoformer的联系:kq的计算结果,可以看做是一个(n,n)的图邻接矩阵,联想到图网络的消息传递,不难发现,kq矩阵与v的相乘,就是消息传递。

而与图网络不一样的是,图网络的邻接矩阵是先验提供的,而transformer将靠模型自己去探索。

也就是说,transformer是自己学习特征的权重图,然后进行消息传递加权。

后面我会总结一些GNN和transfomer的模型思路。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
GNN(Graph Neural Network)和Transformer是两种用于处理图结构数据的神经网络模型。GNN是一种基于图结构的神经网络,它通过在图中的节点之间传递信息来学习节点的表示。每个节点的表示是通过聚合其邻居节点的信息得到的,这样可以捕捉到节点之间的关系和上下文信息。GNN在图结构数据的任务中取得了很好的效果,比如节点分类、图分类等。\[2\] 而Transformer是一种用于自然语言处理的神经网络模型,它通过自注意力机制来捕捉输入序列中的上下文信息。Transformer将输入序列分为多个子序列,并通过自注意力机制来计算每个子序列中的词与其他词之间的关联程度,从而得到每个词的表示。Transformer在机器翻译、文本生成等任务中取得了很好的效果。\[1\] 最近,研究人员开始将GNN和Transformer结合起来,以更好地处理图结构数据。例如,Graphormer是一种结合了Transformer主干网络和针对图结构的创新方法的模型。实验证明,Graphormer是2021年最成功的GNN之一,特别适用于计算化学中的大规模挑战。\[3\] 因此,GNN和Transformer都是用于处理图结构数据的神经网络模型,它们在不同领域的任务中都取得了显著的成果。 #### 引用[.reference_title] - *1* *3* [GNN与Transformer融合促进药物发现 | 2022几何&图机器学习展望](https://blog.csdn.net/BAAIBeijing/article/details/122852800)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [GNN vs Transformer](https://blog.csdn.net/tiancanucas/article/details/124675814)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值