Meta-Learning and in-context Learning

目录

前导:

Inductive Learning

transductive learning

Meta-Learning

Definition:

How to train

in-context Learning


前导:

Inductive Learning

译为“归纳式学习”,即根据对以往数据的观察,来预测新数据的属性;在机器学习中,就是根据已有数据,学习出一个分类器,然后应用到新的数据或任务,对应meta-learning

transductive learning

译为“直推式学习”,即根据对以往数据的观察,结合少量的新数据,来判断更多新数据的属性;在机器学习中,就是根据已有的数据结合给定的少量测试数据来推广到更多的测试数据上,对应in-context learning

Meta-Learning

Definition:

普通的迁移学习指的是,通过一个预训练过后的模型,根据下游任务的不同,模型可以通过微调来处理各种各样的任务。在元学习中,训练的时候就需要准备不同的任务,根据任务的不同进行训练,普通的机器学习训练时不区分任务,以BERT为例,训练的时候用的是wikipedia的数据。

元学习指的是,通过很多的任务和数据得到一个大的可以解决各种各样任务的一个模型,这个模型可以根据下游任务的不同输出一个可以解决下游任务的模型,即没有微调这一阶段预训练时即可解决多任务的情况。元学习的本质是要学会如何学习,模仿人类学习,通过一些训练实例快速学习新的任务。一些元学习的应用如下所示:

1、对非猫图像进行训练的分类器可以在看到少量猫图片时判断图像是否包含猫;

2、游戏机器人快速掌握一个新游戏:例如alpha go学会下象棋;

3、一个只在平地上行走的微型机器人学会在上坡路面上完成行走。

How to train

为了直观的理解如何训练,这里不描述具体的公式,只用自然语言来概括一下。元学习通过不同的任务进行递进的学习,模仿人类的学习过程。假设有一系列任务{a,b,c,d,e},元学习首先在基础的任务a上进行学习,然后通过a的经验训练任务b,以及类推,如果学习这几个任务学习完了以后,有新任务达到的话,接着通过前面的经验学习新的任务(只需要少量样本),注意学习新任务的时候是在新的结构上学习的,之前学习任务的结构和权重并没有被抛弃,仍然被保留下来,所以在学习新任务的时候仍然没有忘记之前学习到的知识。

in-context Learning

in-context learning:根据一些新任务的部分输入输出(demonstrations)并且对新的输入进行预测从而执行一个新任务。

下面的例子展示了GPT-3中是如何进行in-context learning的:

 大家适当理解,可能有不对之处。。。烦请指明。

(25 封私信 / 38 条消息) 什么是meta-learning? - 知乎 (zhihu.com)

一文入门元学习(Meta-Learning)(附代码) - 知乎 (zhihu.com)

Meta-Learning: Learning to Learn Fast | Lil'Log (lilianweng.github.io)

(25 封私信 / 38 条消息) 如何理解 inductive learning 与 transductive learning? - 知乎 (zhihu.com)

[2005.14165] Language Models are Few-Shot Learners (arxiv.org)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

hithithithithit

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值