文献阅读:Self-Attention with Relative Position Representations
文献阅读:Self-Attention with Relative Position Representations论文地址1:简介跟RNN和CNN使用相对位置编码或绝对位置编码相比,transformer使用绝对位置编码在输入端。本文探究在模型中引入相对位置编码,具体而言,是在模型的注意力机制中,融入相对位置信息2: 方法transformer的注意力机制对他的改进:3:相对位置表示对于transformer的每一层,在multihead_attn中添加relative