贴一下汇总贴:论文阅读记录
一、摘要
Transformer 模型广泛用于自然语言处理中的句子表示。然而,之前的基于 Transformer 的模型专注于在大多数情况下意义有限的功能词,并且只能提取高级语义抽象特征。在本文中,介绍了两种方法来提高 Transformer 的性能。我们通过将词性权重向量与相关系数相乘来计算注意力得分,这有助于提取更具有实际意义的单词。权重向量由输入文本序列根据词性的重要性得到。此外,我们融合了每一层的特征,使句子表示结果更加全面和准确。在实验中,我们证明了我们的模型 Transformer-F 在三个标准文本分类数据集上的有效性。实验结果表明,与基线模型相比,我们提出的模型显着提高了文本分类的性能。具体来说,我们在简单任务上比普通 Transformer 获得了 5.28% 的相对改进。
二、结论
本文提出了用于句子表示的Transformer-F,以解决普通Transformer只关注无意义的虚词,不能利用浅层特征的问题。我们从三个方面对Transformer进行了改进:(1)用相关系数代替点积来恰当地表示词与词之间的相关性;(2)通过将词性权重向量与相关系数矩阵相乘,我们计算注意力权重,这有助于提取具有实词的单词;(3)融合各层特征