ICLR 2023 | Edgeformers: 基于Transformer架构的表征学习框架

6e696d7e9a856437fd2b35b46e741c89.gif

如今流行的预训练语言模型大多采用 Transformer 作为模型架构,已经在诸多下游任务中(包括文本分类,文本摘要,文本生成)表现出了强劲的性能。然而目前大多数针对预训练模型的应用主要集中在纯文本领域,对伴随着网络结构信息的文本数据缺乏相关研究。

另一方面,图神经网络在图数据的建模问题中应用十分广泛。然而,现存的图神经网络需要将图中点/边所原本带有的信息转化为特征向量输入到模型中。但是当图中的点/边带有文本信息时,它们通常需要使用词袋模型首先进行文本信息提取。在这个过程中,原始文本丰富的语义信息将会被折损。

本文主要研究了边上带有文本的图(用户-商品交互图,社交网络)上的表示学习问题。针对预训练语言模型和图神经网络模型的问题,我们提出了一套基于 Transformer 架构的编码方法,解决了文本语义信息和网络结构信息难以共同建模的问题。

f8d7e3d165401a6485f2740a2c8fbfae.png

论文题目:

Edgeformers: Graph-Empowered Transformers for Representation Learning on Textual-Edge Networks

收录会议:

ICLR 2023

论文链接:

https://openreview.net/pdf?id=2YQrqe4RNv

代码链接:

https://github.com/PeterGriffinJin/Edgeformers

48689c25f3d0e8b2743c6e81ee4551ac.png

研究背景

现实生活网络(社交网络/信息网络)数据中的边常常带有丰富的文本信息。比如,社交网络中用户之间会有 email 消息交流,我们如果将用户建模成网络中的点,用户之间的交互建模成网络中的边,那么边就会自然的带有 email 文本信息;电子商务平台中用户常常会给购买过的商品留下评论文本,我们如果将用户和商品建模成网络中的点,用户和商品之间的交互建模

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值