大模型论文—PreTTY:无需训练的多语言模型对齐

本文全面概述了大型语言模型(LLMs)在持续学习(CL)背景下的研究进展。涵盖垂直与水平持续学习,学习阶段,评估协议及当前数据源。

虽然监督微调 (SFT) 是一种根据特定偏好定制基础大型语言模型 (LLM) 输出的直接方法,但人们对这种一致性的深度提出了担忧,一些批评认为它只是“肤浅的”。我们在跨语言生成任务的范围内批判性地检验了这一假设,提出SFT的有效性可能受到其对先前标记的依赖来指导跨语言生成的限制。基于这一关键的见解,并为了应对SFT非英语数据昂贵且可用性有限的挑战,我们引入了一种名为PreTTY的新型免训练对齐方法,该方法使用最少的任务相关先验标记来桥接基础LLM和SFT LLM,无需训练即可实现可比的性能。八种语言的机器翻译和词性标记实验证明了 PreTTY 在跨语言环境中的功效。值得注意的是,通过仅使用一个或两个先前的标记启动解码过程,基金会 LLM 可以实现与 SFT 对应物相当的性能。这种方法提供了一种具有成本效益的SFT替代方案,并促进了多语言LLM的民主化。在这里插入图片描述
在这里插入图片描述
想要论文资源的可以找我拿在这里插入图片描述******

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值