上海交大:精炼预训练语料库提升LLM性能

在这里插入图片描述

📖标题:Programming Every Example: Lifting Pre-training Data Quality like Experts at Scale
🌐来源:arXiv, 2409.17115

摘要

🔸传统上,大型语言模型预训练依赖于人类专家来制定启发式方法来提高语料库质量,从而产生了迄今为止开发的许多规则。然而,这些规则缺乏灵活性,无法有效地解决单个示例的独特特征。同时,对人类专家来说,将量身定制的规则应用于每个例子是不切实际的。
🔸在本文中,我们证明,即使是参数少至0.3B的小型语言模型,也可以表现出与人类专家相当的数据精炼能力。我们介绍了Programming Every Example(PROX),这是一个将数据细化视为编程任务的新框架,使模型能够通过为每个单独的示例生成和执行细粒度操作(如字符串规范化)来细化语料库。
🔸实验结果表明,在PROX策划的数据上预训练的模型在各种下游基准测试中的表现优于原始数据或其他选择方法过滤的数据2%以上。它的有效性涵盖了各种模型大小和预训练语料库,包括C4、RedPajama-V2和FineWeb。此外,PROX在特定领域的持续预训练中表现出巨大的潜力:在没有特定领域设计的情况下,在由PROX改进的OpenWebPath上训练的模型优于人工构建的基于规则的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大模型任我行

随意啦,喜欢就好~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值