李宏毅DLHLP.29.GPT3

介绍

本门课程是2020年李宏毅老师新课:Deep Learning for Human Language Processing(深度学习与人类语言处理)
课程网站
B站视频
公式输入请参考:在线Latex公式
先感叹一下这个巨大的模型,文章作者30+,文章页数70+,模型参数175亿,光下载下来要700+G,训练这个玩意不知道烧了多少钱。
在这里插入图片描述
之前BERT之类的预训练模型在进行下游任务的时候,还需要进行fine-tune,需要收集小部分和任务相关的数据,而GPT-3则想要省略这个步骤,直接使用。
在这里插入图片描述
GPT-3的几种场景:中间就是要丢进模型的东西。
在这里插入图片描述
对42个任务进行了实验得到下面的结果:
在这里插入图片描述
下面来看几个典型的任务:

Closed Book QA

64个数据就可以拿SOTA
在这里插入图片描述

文本生成

文本生成没有zero shot的方式,需要给一个范文,就是一个标题,一个文章,然后再给一个标题,那么模型就要根据标题生成相应的文章内容,然后由人来判断文章是不是模型生成的,下图的横轴是模型的参数大小,纵轴是生成文章的置信度,越低表明人判断不是机器生成的概率越高。
在这里插入图片描述

造句

下面是模型造句的例子,最上面是一个完整的例子,造句分两个部分,第一部分是某个词的定义,第二个部分是用这个词造句。下面几个例子中的词都是不存在的,而模型依然可以正确的造出相应的句子。
在这里插入图片描述

数学计算

在这里插入图片描述
下图中横轴是参数的数量,纵轴是准确率,2位数和3位数的加减还行。

在这里插入图片描述
以上几个任务都是GPT-3比较好的,还有几个任务是不work的,例如:

NLI

这个任务就是判断两个句子的关系,例如:包含、中立、反对等。
在这里插入图片描述
GPT-3是一个LM,因此它在预测任务上表现较好,这里比较句子的任务中,通常出现的两个句子是比较怪的,因此GPT-3可能很少看见过类似句子,因此效果不好。

BUG

在这里插入图片描述
这段话的意思是,GPT-3比较大,在训练的时候用的training data是网上爬的,因此这些训练数据可能和testing data有overlap,这个相当于偷看过答案再去考试。。。但是模型太大,没法重新训练。前面提到训练一把估计就几亿美金。。。。为了解决这个问题,文章把testing data分成两种,一种是完全干净的(模型没有看过),一种是dirty data(模型可能看过的)然后得到下面这个图:
在这里插入图片描述
中间横线上方代表干净数据效果好,下放代表脏数据效果好,可以看到大多数任务都集中在横线附近,说明模型对于数据是否看过影响并不大。

Turing Advice Challenge

这个和GPT-3无关,是一个关于用NLP来给建议的一个任务,就是在论坛之类的网站上,有人给出各种提问、求助,然后有人在上面进行各种回复,得赞最高的就是ground truth,下面是结果:
在这里插入图片描述
这里还米有GPT-3的结果,但是从T5上看结果是不理想的,右边那个还不人类得赞最高的结果,是second best。

image GPT

GPT-3还可以用来图像生成,就是把图像里面的每一个像素看做一个序列,丢进模型中训练,下面是例子:
https://openai.com/blog/image-gpt/
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

oldmao_2000

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值