李宏毅机器学习(七)GPT的野望

前情提要

前面我们有说,BERT做的是什么? Bert做的是填空题! GPT做的是什么? 做的是预测接下来要出现的Token是什么? 它里面的结构有点像Transformer中的Decoder

GPT最有名的就是生成了一个关于独角兽的假新闻! 同时也说明了它的作用就是可以写出一个文章

GPT系列很难去训练,因为太大了,也很难去fine-tune! 但是GPT有一个很狂的想法: 就是说我们只给你少量或者没有参考样本,在给出你提示后,让你去学习出正确的答案!

给出了42个任务! 这些是42个任务的准确率!

Beyond Text

当然也可以用在不同的领域上了!

Image

BYOL:Bootstrap Your Own Latent(不知道为什么会Work! Deep learning的神奇)
SimCLR

Speech

Audio Version/Bert 也可以补全语音

Speech GLUE- SUPERB

这是各种Self-supervised的模型!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值