life long learning 学习笔记

学习来源:李宏毅2020机器学习深度学习(完整版)国语

链接:https://www.bilibili.com/video/BV1JE411g7XF?p=99

life long learning 也可称为:

终身学习的目的:同时学会多个技能

为了达成life long learning 需要解决的问题:1、保留多任务的知识(不遗忘) 2、知识迁移 3、有效率的模型扩张

举例:使用nn对手写数字0进行识别,如图的两个问题,如果先学task1,再学task2,会使task1的表现变差

一个解决方法:将task1、2的训练数据放在一起

先学task1,再学task2时,对task1知识的遗忘,也称为“灾难性遗忘”

那是不是同时学习多任务就可以呢?问题:这样需要同时保存多任务的训练数据,需要背负大量的旧任务数据:会产生存储问题;同时训练大量数据:会产生计算开销问题。

所以将多任务学习视作终身学习的upper bound

终身学习的一种基本解决方法:elastic weight consolidation

想法:一些参数对以前的任务更重要,而一些参数对以前的任务没有那么重要:在进行新任务的学习时对重要的参数进行较小的改动

具体方案:

一个图例:theta2对task1很重要,而theta1不重要;在学习task2时应对theta2进行较小改动

多任务学习可以解决遗忘问题,但还有其他问题(存储、计算问题)

一个方案:不保存过去任务的数据,而是保存过去任务的生产模型

transfer learning 和 lifelong learning 的区别:终身学习希望模型可以同时学会task1和task2;而transfer learning只希望模型学习task1后,能否任务在task2的表现更好,而不在意task1的效果

 

对终身学习的一种evaluation:

gradient episodic memory方法:对梯度方向进行一些修改,希望该方向对过去task的表现也有帮助(并不是存下所有corpus,存下部分的过去数据)

模型扩张方法:

progressive neural networks:每次新任务新建一个网络,将以前任务的网络的输出当作新任务的输入

expert gate:每个task训练一个network,同时训练一个task的detector

net2net:若网络的规模不足以将模型训练好,对模型进行分裂,对参数加上一些noise

curriculum learning:对任务学习顺序的排序:因该先学哪个任务

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值