Structure-Aware Transformer for Graph Representation Learning

文章提出Structure-Aware Transformer(SAT),解决了Transformer在图表示学习中无法捕获节点间结构相似性的问题。SAT结合GNN和Transformer,通过绝对编码与新型相对编码结合图形结构,同时考虑局部和全局信息。作者还定义了结构感知注意力,以解决仅依赖节点特征的局限性,实现了对节点结构相似性的考虑。文中介绍了两种结构提取器:k-subtree和k-subgraph GNN extractor。
摘要由CSDN通过智能技术生成

Structure-Aware Transformer for Graph Representation Learning

在图表示学习中,Transformer结构通过位置编码对图形结构进行编码,克服了GNN的几个局限性,但其使用位置编码生成的节点表示不一定能捕获他们之间的结构相似性,所以,为了解决这个问题,作者提出了Structure-Aware Transformer——一类新的自我关注机制的简单灵活的graph Transformers.

在计算注意力之前,提取扎根于每个节点的子图表示,将提取到的结构信息与原始的自我注意力相结合形成新的自我注意力。

优点:可以利用任何现有的GNN来提取子图表示。

GNN存在的缺点:over-smoothing 和 over-squashing
Absolute encoding:向输入节点特征添加或连接位置或结构表示
relative encoding:该策略将图上节点之间的相对位置或距离的表示直接结合到自我注意力机制中。
作者提出的SAT结合了消息传递GNN和Transformer架构的两个方面的优点。结合了一种绝对编码和一种新的相对编码,这种编码明确的结合了图形结构,从而设计了一种同时考虑本地和全局信息的Transformer架构。
在Transformer中,有两部分组成:a self-attention module and a feed-forward neural network
在self-attention module 中,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值