元学习

元学习是要学会任务中的特征表示,从而在新任务上泛化。元学习主要解决的是学会如何学习的问题。
元学习主要包括:zero-shot/One-shot/Few-shot learning。

元学习的主要方法包括:基于memory,基于预测梯度,利用attention注意力机制,借鉴LSTM,面向RL的meta learning方法,利用WaveNet方法,预测Loss的方法等。

  1. 基于记忆Memory的方法
    基本思路:如果需要通过以往的经验来学习,是不是可以通过在神经网络上添加Memory来实现。

  2. 基于预测梯度的方法
    基本思路:meta Learning的目的是实现快速学习,而快速学习的关键一点是神经网络的梯度下降要准快,那么是不是可以让神经网络利用以往的任务学习如何预测梯度,这样面对新任务,只要梯度预测的准,那么学习的就会更快。

  3. 利用attention注意力机制的方法
    基本思路:人的注意力是可以利用以往的经验来提升的,利用以往的任务来训练一个Attention模型,从而面对新的任务,能够直接关注最重要的部分。

  4. 借鉴LSTM的方法
    基本思路:LSTM内部更新非常类似于梯度下降的更新,那么,能否利用LSTM的结构训练出一个神经网络的更新机制,输入当前网络的参数,直接输出新的更新参数。
    值得思考的一个问题:如何把LSTM的更新和梯度下降联系起来

  5. 面向RL的Meta Learning
    基本思路:mete Learning可以用在监督学习上,那么增强学习上怎么做呢?能否通过增加一些外部信息比如reward,action等。
    可以额外增加reward和action的输入,从而强制让神经网络学习一些任务级别的信息。

  6. 通过训练一个好的base mode的方法,并且同时应用到监督学习和强化学习
    基本思路:寻找更加通用的方法可以同时应用到监督学习或者强化学习上。

  7. 利用WaveNet方法
    基本思路:WaveNet的网络每次都利用了之前的数据,是否可以照搬WaveNet的方式来实现Meta Learning?学习充分利用以往的数据。

  8. 预测Loss
    基本思路:要让学习的速度更快,除了更好的梯度,如果有更好的Loss,那么学习的速度也会更快,是否可以构造一个模型利用以往的任务来学习如何预测Loss?
    在这里插入图片描述
    在这里插入图片描述

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值