GNN vs Transformer

1.首先我们看以下两个图:左图为图及其邻接矩阵,右图为transformer中注意力的可视化结果。

2.GNN图的表示学习transformer是文本的表示学习

GNN可以看作是建立了图中节点和边的表示,通过邻域聚合来实现,每个节点从其邻域收集特征,以更新其周围的局部图结构表示。通过堆叠多个GNN层使得该模型可以将每个节点的特征传播到整个图中,从其邻居传播到邻居的邻居。节点的表示受自身及邻居节点点影响,GNN学习的是node embedding。

Transformers在不用递归的情况下来进行文本的表示学习,使用注意力机制构建每个单词的特征,找出句子中的其他词对于当前的重要程度。知道了这一点,单词的特征更新就是所有其他单词特征的线性变换的总和,并根据它们的重要性进行加权。当前词受自身及上下文词语的影响,Transformer学习的是word embedidng。

3.句子就是词语的全连接图

为了让 Transformer 和图神经网络的关系更直接,我们可以将一个句子想象为一个全连接图,每个词都和其余的词相连接。就可以使用GNN来为图(句子)中的每个节点(单词)构建特征,这就是transformer所在做的工作。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值