LLM - 理解 Transformer 的位置编码 sin & cos 的作用与原理

欢迎关注我的CSDN:https://spike.blog.csdn.net/
本文地址:https://spike.blog.csdn.net/article/details/140697827

免责声明:本文来源于个人知识与公开资料,仅用于学术交流,欢迎讨论,不支持转载。


Transformer 模型中的位置编码是关键技术,通过为每个词嵌入向量添加位置信息来保留序列的顺序性,增强模型对长距离依赖关系的捕捉能力,使得模型能够理解单词在句子中的位置,从而更好地处理语言的语法和语义结构,提高模型的表达能力和泛化能力,同时减少训练时间并增强模型的自适应性。位置编码通常通过正弦和余弦函数的组合实现,为每个位置生成唯一的编码,使得模型能够在并行处理序列数据的同时保留顺序信息。

论文中的位置编码 (Positional Encoding):

PE

公式如下:
P

  • 4
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Caroline S

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值