Positional Embedding与Positional Encoding的区别?

一、Positional Embedding

在这里插入图片描述
通常,embedding是指学习出来的encoding,是将位置信息“嵌入”到某个空间的意思。例如,bert的位置编码是学出来的,所以称为position embedding

二、Positional Encoding

而transformer的位置编码是用三角函数直接算出来的(当然,论文中说也可以学出来,效果差不多,所以最后还是采用了直接编码),不涉及嵌入的思想,所以叫position encoding
在这里插入图片描述

三、应用:

embedding的方式存在序列长度的限制,position可以理解通过lookup的方式得到,超过了训练时最大长度,就无法识别了;这种方式也被验证相对于位置编码效果更好,因此BERT和GPT都采用了这种方式。

encoding的方式就不受最大序列长度的约束

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值