Leveraging Open Knowledge for Advancing Task Expertise in Large Language Models

本文是LLM系列文章,针对《Leveraging Open Knowledge for Advancing Task Expertise in Large Language Models》的翻译。

利用开放知识提升大型语言模型中的任务专业知识

摘要

培养大型语言模型(LLM)的专业知识来解决特定领域的任务通常需要针对预期稳定输出进行特殊目的的调整和校准行为。为了避免手动准备长达数百小时的指令数据集和训练资源带来的巨额成本,利用包括丰富的低秩适应(LoRA)模型和指令数据集在内的开放知识作为一个很好的起点。然而,现有的模型和数据选择方法侧重于通用功能的性能,而忽略了特定领域部署中暴露的知识差距。在本研究中,我们建议通过引入少量人工注释样本(即 K-shot)来弥合这一差距,以利用开放知识提升LLM的任务专业知识。具体来说,我们开发了一个高效且可扩展的管道,以经济高效地生成任务专家,其中 K-shot 数据介入选择最有希望的专家候选者和任务相关指令。混合专家 (MoE) 系统的建立是为了充分利用多位专家之间各自互补的知识。我们揭示了 MoE 系统成功的两个关键,1)对 K-shot 的遵守,2)对多样性的坚持。对于前者,我们确保选择真正具有 K-shot 问题解决能力的模型,而不是那些盲目猜测的人。此外,在数据选择过程中,与 K-shot 共享任务相关上下文的指令会被优先考虑。对于后者,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值