论文信息
题目:Pre-Training a Graph Recurrent Network for Text Understanding
中文题目:基于图循环网络的文本理解预训练
作者:Yile Wang, Linyi Yang, Zhiyang Teng, Ming Zhou, Yue Zhang
论文创新点
- 提出全新架构:论文提出基于图循环网络(GRN)的模型架构,创新性地将每个句子构建为具有局部令牌级通信的图结构,并配有独立于其他普通令牌的句子级表示,从而避免使用Transformer架构中的自注意力机制,使模型具备线性时间复杂度。
- 设计独特节点更新机制:在编码层,该模型严格遵循S-LSTM的节点通信方式,使用子词和位置嵌入,并添加层归一化。在更新节点状态时,通过类似LSTM的门控机制,并行更新令牌节点和句子节点的状态,使得模型在处理句子时能实现并行计算,