机器学习:GPT3

在这里插入图片描述

GPT3

模型过于巨大
在这里插入图片描述
GPT3是T5参数量的10倍!
在这里插入图片描述
训练GPT3的代价是$12百万美元
在这里插入图片描述

Zero-shot Ability

在这里插入图片描述
GPT3的思想是不是能拿掉Fine-tune
在这里插入图片描述
只需要给定few-shot或者zero-shot就能干相应的任务了。
在这里插入图片描述
在这里插入图片描述

  • few-shot learning(no gradient descent): 给一点点的prompt
  • one-shot learning: 给一个prompt
  • zero-shot leaning:什么都不给

few-shot 是没有微调模型的,没有梯度下降,这些文字是让模型知道做什么。

将这种能力叫做”In-context Learning“
在这里插入图片描述
GPT3在42个任务上的表现,随着模型参数越来越大,模型性能越来越好。

相关能力

Closed Book QA

在这里插入图片描述
闭卷直接问,比如说喜马拉雅山的高度是多少,few-shot learning 超过了fine-tuned sota。

在这里插入图片描述
随着few-shot给的数量越多,性能越来越好。

在这里插入图片描述
GPT3也可以做生成相关的任务,比如生成文章。产生的新闻可以骗过人类。
在这里插入图片描述
在这里插入图片描述
gpt3能做数学相关的任务,使用模型的参数越大,正确率也越高,两位数的加法和两位数的减法上表现非常好,三位数的减法也不错,加法效果要差一点,更困难的就效果比较差了。

在这里插入图片描述
在zero-shot和one-shot效果不行,在few-shot上效果要好一点,在ANLI的任务上效果不好,即给定两个矛盾的句子,判断两个句子是否矛盾。

在这里插入图片描述

训练数据是从网上爬取的数据,但是无法避免爬取的内容中是否含有任务的数据,相当于拿问题的数据进行训练再来回答任务的数据。

  • clean data:gpt3没有看过这些数据
  • dirty data:gpt3有看过这些数据
Turing Advice Challenge

在这里插入图片描述
gpt3给建议。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
与人类的建议做一些比较,效果还一般。
在这里插入图片描述
GPT产生图像,一行一行的产生图像。
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

uncle_ll

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值