长度外推性(指我们在短序列上训练的模型,能否不用微调地用到长序列上并依然保持不错的效果)【ALIBI位置编码】(像RoPE算是外推能力较好的位置编码,也只能外推10%到20%左右的长度而保持效果不变)

本文探讨了Transformer模型的长度外推性,即模型在短序列上训练后在长序列上的适用性。追求长度外推性源于理论完备性和训练实用性。尽管相对位置编码如RoPE在一定程度上改善了外推性,但效果有限,仅能外推10%-20%的长度。文章指出,优化位置编码可能不足以显著提升Transformer的长度外推性,因为当前的位置编码函数不具备足够的光滑性,导致外推行为难以预测。
摘要由CSDN通过智能技术生成

外推性

  • 指我们在短序列上训练的模型,能否不用微调地用到长序列上并依然保持不错的效果。

之所以追求长度外推性:

  • 一方面是理论的完备性,觉得这是一个理想模型应当具备的性质;
  • 另一方面也是训练的实用性,允许我们以较低成本(在较短序列上)训练出一个长序列可用的模型;

对于Transformer模型来说,其长度的外推性是我们一直在追求的良好性质,它是指我们在短序列上训练的模型,能否不用微调地用到长序列上并依然保持不错的效果。之所以追求长度外推性,一方面是理论的完备性,觉得这是一个理想模型应当具备的性质,另一方面也是训练的实用性,允许我们以较低成本(在较短序列上)训练出一个长序列可用的模型。

下面我们来分析一下加强Transformer长度外推性的关键思路,并由此给出一个“超强基线”方案,然后我们带着这个“超强基线”来分析一些相关的研究工作。

思维误区 #

第一篇明确研究Transformer长度外推性的工作应该是

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值