UIO-LLMS:长上下文大语言模型的无偏增量优化方法

作者:Li Wenhao, Lin Mingbao, Zhong Yunshan, Yan Shuicheng, Ji Rongrong
发表机构:厦门大学,Skywork AI
联系邮箱:wenhaoli@stu.xmu.edu.cn, linmb001@outlook.com, zhongyunshan@stu.xmu.edu.cn, shuicheng.yan@kunlun-inc.com, rrji@xmu.edu.cn

摘要

处理长文本对于大语言模型(LLMs)来说是一个挑战,因为其上下文窗口大小有限。本文提出了一种名为 UIO-LLMs 的方法,这是一种在长上下文设置下对增强记忆的 Transformer 进行无偏增量优化的方法。我们首先将该过程概念化为一个简化的编码器-解码器框架,其中权重共享的编码器和解码器分别将上下文段落封装到记忆中,并利用这些记忆预测后续段落的输出。随后,通过将我们的增强记忆的 Transformer 视为全连接的递归神经网络(RNN),我们使用截断时间反向传播(TBPTT)算法来优化训练过程,该算法结合了创新的增量优化技术。这些技术不仅降低了时间复杂度,还通过无偏优化过程解决了梯度计算中的偏差问题。UIO-LLMs 成功处理了长上下文,例如将 Llama2-7b-chat 的上下文窗口从 4

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

步子哥

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值