李宏毅:Life Long Learning

Life Long Learing 也是continual Learning,也是incremental learning

目录

Life-Long Learning  vs  Transfer Learning

Evaluation

Research Directions

Selective Synaptic Plasticity——Regulization Based

Additional Neural Resourcr Allocation

Memory Reply


Life-Long Learning  vs  Transfer Learning

Transfer Learning:在任务一上学到的内容Transfer到任务二,关注点在Task2

Life-Long Learning:学完Task2以后Task1还能否work

Evaluation

Research Directions

Selective Synaptic Plasticity——Regulization Based

Forget的原因:白色——loss越大,蓝色——loss越小,先让模型训练task1,随机训练的参数θ0,然后使用梯度下降的方法调整θ0的参数,得到θb。将θb的参数迁移到Task2,继续训练得到θ*。将θ*应用于task1发现loss变大,说明出现了forget现象。如果将θb往右移是否在task1上效果更好呢?(往右移也是蓝色区域)

basic idea:对先前任务重要的一些参数不要改变,只需要调整不重要的参数。

\theta^b 是先前任务学习到的参数,对每一个参数 \theta_{i}^b 设置一个守卫 b_{i} ,代表该参数对过去的任务是否重要。\theta_{i} 指的是将要被此任务学习得到的参数,下式为改写后的loss function,第二个式子表示该参数的重要程度:

L{}'(\theta )=L(\theta)+\lambda \sum_{i}b_{i}(\theta_{i}-\theta_{i}^b)^2

if\quad b_{i}=0,\quad there \quad is\quad no \quad constraint \quad on\quad\theta_{i}    ——catastrophic forgetting

if\quad b_{i}=\infty,\quad \theta_{i} \quad would\quad always \quad be \quad equal\quad to\quad \theta_{i}^b ——instransigence

如何设置 b_{i}?

\theta_{1} 方向上loss变化很小,b1很小;\theta_{2} 方向上loss变化比较大,b2较大。

 Gradient Episodic Memory (GEM)

 通过存少量资料updata direction。

Additional Neural Resourcr Allocation

Progressive Neural Networks

只训练当前模型的参数,只是将前面模型的参数作为输入,缺点:占用过多额外空间。

PackNet:开一个大的网络但每次task只占用其中一部分,参数保留一小部分

CPG:结合上述两种方法,既进行参数的dropout,也开辟网络空间

Memory Reply

Generating data

生成先前任务的学习资料来用于现在任务的训练。

 增加新class方法:

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值