- 博客(1)
- 收藏
- 关注
原创 Transformer的position embedding
1. position embedding 位置编码 我们为什么要引入位置编呢?主有以下几个原因: 文本是时序型数据,词与词之间的顺序关系往往影响整个句子的含义。 transformer模型的self-attention层并没有包含位置信息,即一句话中词语在不同的位置时在transformer中是没有区别的。 我们要想让位置信息参与训练,就要构造一个跟输入embedding维度一样的矩阵,然后...
2020-05-07 16:31:51
5173
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人