什么是zero/few/one-shot?

Zero-shot 、One-shot 、Few-shot Learning策略主要是用于解决神经网络模型因为训练数据少,导致模型泛化能力差的问题。

Zero-shot Learning

在训练集中没有某个类别的样本,但是在测试集中出现了这个类别,那么我们就需要模型在训练过程中,即使没有接触过这个类别的样本,但是仍然可以通过对于这个类别的描述,对没见过的类别进行分类,目的是让模型对于要分类的样本一次也不学习的同时具有人类的推理能力。

例:假设我们的模型已经能够识别马,老虎和熊猫了,现在需要该模型也识别斑马,那么我们需要告诉模型,怎样的对象才是斑马,但是并不能直接让模型看见斑马。所以模型需要知道的信息是马的样本、老虎的样本、熊猫的样本和样本的标签,以及关于前三种动物和斑马的描述。
在这里插入图片描述

One-shot Learning

公司门禁用了人脸识别,你只提供一张照片,门禁就能认识各个角度的你,这就是 one-shot。可以把 one-shot 理解为用 1 条数据 finetune 模型。在人脸识别场景里,one-shot 很常见。

Few-shot Learning

在模型训练过程中,如果每个类别只有少量样本(一个或者几个),研究人员希望机器学习模型在学习了一定类别的大量数据后,对于新的类别,只需要少量的样本就能快速学习,这就是 Few-shot Learning 要解决的问题。本质上是让机器学会自己学习(learn to learn),其实就是通过判断测试样本与训练样本的相似性,来推测测试样本属于什么类。

学习的目的是理解事物之间的不同,学会区分不同事物。给两张图像,不让学会是什么,而是学会是否相同。

chatGPT 的发展史,就是从 zero-shot 到 few-shot。

  1. 背景。GPT-3 之前,跟 Bert 是两条路线的竞争关系。
  2. GPT-2 是 zero-shot。效果没有超过 bert,又想发 paper,就把自己的卖点定义为 zero-shot(方法创新),即完全的无监督学习,论文的题目:Language Models are Unsupervised Multitask Learners。
  3. GPT-3 是 few-shot。效果比 bert 好,不用找学术方法的卖点了,而且,zero-shot 做产品的性价比确实不高,换成了 few-shot,也就是找了一些人做标注。论文的题目:Language Models are Few-Shot Learners。
  4. chatGPT 是 HFRL。GPT-3 之后的问题是:few-shot 时到底 shot 啥(标注哪些数据)?他们跟强化学习结合起来,也就是 human feedback reenforcement learning(人类反馈强化学习),俗称 HFRL。也就是 chatGPT 的核心技术。

HRFL 这套方法,本质目的是:如何把机器的知识与人的知识对齐。然后开创了一个新的方向,叫 alignment。openAI 在内的好多大佬,都在追这个新方向。

注:这里的 alignment,与人脸识别里的 alignment,完全不一样。

参考:

  1. Few-Shot, Zero-Shot & One-shot 的通俗理解:https://zhuanlan.zhihu.com/p/624793654
  2. Zero-shot 、One-shot 、Few-shot Learning 简介与应用:https://zhuanlan.zhihu.com/p/589980154
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值