大模型理论基础4

大模型数据

大语言模型背后的数据

  • 为了实现高度的能力(如语言和世界知识),这些文本应涵盖广泛的领域、类型、语言等。
WebText和OpenWebText数据集
  • WebText数据集被用于训练GPT-2模型
  • 可以利用OpenWebText来进行一些原本需要WebText数据集的实验和研究
Colossal Clean Crawled Corpus(C4)
  • C4语料库被用来训练T5模型
Benchmark的数据污染问题
  • 若基准数据在模型的训练数据中出现过,基准性能就可能会产生偏差。
  • 一般而言,在机器学习中,保证训练数据和测试数据的分离(我们称之为数据卫生)相对容易。
  • 但对于大型语言模型,训练数据和基准数据都源自互联网,要事先保证它们的完全分离就显得有些困难。
GPT-3的数据集
  • GPT-3的数据集主要源自Common Crawl,而Common Crawl又类似于一个参考数据集——WebText
The Pile数据集
  • The Pile数据集包含了825GB的英文文本,由22个高质量数据集组成。
  • 当用这个数据集训练GPT-2Pile(1.5B参数)并与用GPT-3数据集训练的GPT-3(175B参数)进行比较时,The Pile包含了大量GPT-3数据集未能很好覆盖的信息。
  • 10
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值