元学习希望使得模型获取一种学会学习调参的能力,使其可以在获取已有知识的基础上快速学习新的任务。机器学习是先人为调参,之后直接训练特定任务下深度模型。元学习则是先通过其它的任务训练出一个较好的超参数,然后再对特定任务进行训练。
(就是期望省下一下苦哈哈的调参时间,可惜Meta learning还有参数要决定,属实是套娃)
图中的参数都是可以通过学习调整的。一文通俗讲解元学习(Meta-Learning)
【李宏毅-元学习】少样本&元学习Meta Learning_MAML最新机器学习课程!!!
【下面是学习记录,自用为主,等全部学完再来整理,图片多是李宏毅老师的PPT】【Meta Learning_MAML】
1.其中可变参数为神经网络的超参数
2.当损失函数无法下降时,无法微分时,使用Reinforcement learning/Evolutionary Algorithm
3.少样本和meta learning的细微区别在于:
少样本学习希望神经网络可以用较少的数据就训练出较好的结果;而meta learning则是希望通过不同的任务学习出同类型任务下的通用神经网络结构。少样本学习的结构可以通过meta learning学习出来。
4.Acorss-task training (最终任务-目的),within-task learning(训练网络参数时进行的多个任务)