元学习

从零开始,了解元学习【机器之心】

https://www.jiqizhixin.com/articles/meta-learning-intro

针对实验“元学习”的方法有很多,具体可以分为以下几类: 

https://blog.csdn.net/qq_34886403/article/details/82664879

在元学习的领域,我们不再关注获取标签。与之相反,我们尝试让机器从少量的数据中更快的学习。

从大量任务训练模型,并通过少量数据在新任务中更快地学习。

元学习的训练过程,最初是由 Oriol Vinyals 在他的匹配网络(matching networks)论文(链接:https://arxiv.org/abs/1606.04080)中提出

元学习中的优化策略则是:优化一组初始参数,或优化一个可以快速在每个任务上表现良好的模型,尝试用系统性的方法去学习一种在各种任务中都非常优秀的初始化参数。

https://www.sohu.com/a/324068498_129720

有哪些比较好的元学习(meta learning)领域的学习资源?

https://www.zhihu.com/question/328419605

Meta Learning/Learning to learn

Meta-Critic Network作为一种全新的Meta Learning方法,通过训练出一个核心指导网络(也就是核心价值观),从而能够指导新任务的快速学习,具备非常大的潜力。

MAML是目前Meta-Learning很新的一个研究,但是效果相对我们的有差。

MAML的思想是构建一个好的初始网络然后finetune,显然很难适应不同类型的任务,而Meta-Critic由于有任务行为编码器(Task-Actor Encoder)的存在,可以面对各种不同类型的任务。

https://zhuanlan.zhihu.com/p/28639662

在线元学习的诞生之前,Levine和他的团队在2017年开发了一个广泛的系统,称为“模型无关的元学习(MAML)”。

在线元学习论文:

https://arxiv.org/abs/1902.08438

 

 

 

来自老师学生的一个论文

感觉和我的关系不大,应该用不上。

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值