大模型学习笔记02——大模型的能力

大模型学习笔记02——大模型的能力

1、概述

  • 以GPT-3为例,并未明确针对这些任务进行训练,它只是作为一个语言模型,被训练来预测下一个词
  • 由于GPT-3并未特别针对任何这些任务进行训练,因此它并未过度拟合,意味着它有很大的潜力在许多其他任务上表现良好

2、语言模型的适应性:从语言模型到任务模型的转化

以GPT-3为例,仅在大量语料上训练的语言模型,未针对任何任务进行训练,因此从语言模型到任务模型的转化(也叫做语言模型的适应性)需要以下两个输入:

  • 任务的自然语言描述
  • 一组训练实例(输入-输出对)

主要有两种方式来完成这种适应:

  • 训练(有监督学习)

  • 提示(上下文)学习

    • zero-shot
    • one-shot
    • few-shot

在适应的过程中,训练可能会因为过拟合而变得具有挑战性,因为大模型的参数往往很多,而参与训练的数据或例子较少(一部分原因是数据有限,一部分原因是模型可输入长度有限,有的即使可以输入足够的长度,但是大模型对输入的开始和结尾的部分更敏感,更容易记住,而中间部分容易遗忘,导致中间部分数据可能没有起到很好的作用)

总的来说,大模型具有很不错的性能,并且上下文的数量更多总是更好的。

以GPT-3为例,对其各种功能升入的认知,并真正理解如何优化给模型的提示,最直观的方法是验证语言模型是否能够有效地模仿和理解语言。

困惑度(perplexity),用于衡量语言模型的性能,模型的困惑度较低,预测下一个词越准确

总结

  • GPT-3的表现不稳定
  • 增加模型的大小和示例的数量都有助于提高性能
  • 对于模型表现的原因尚不清楚

原文地址添加链接描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值