持续学习——Optimal Continual Learning has Perfect Memory and is NP-HARD——ICML2020

在这里插入图片描述
在这里插入图片描述

Abstract

The main finding is that such optimal continual algorithms generally solve an NP-HARD problem and will require a perfect memory to do so.

Introduction

分类方法分成regularization-based, replay-based和bayesian and variationally Bayesian三类;另外就是每个任务学一份参数;如何验证一个continual learning算法的性能用理论《Three scenarios for
continual learning, arxiv 2019.04》;
Optimal CL algorithms would have to solve an NP-HARD problem and perfectly memorize the past.

Conclusion

the first generic theoretical study of the CL problem

Key points:
没开源代码;Well-written,值得细读,理论部分可以学习;总结经验发现型文章,有一定的理论推导;
主要讨论的是基于正则项的方法;P问题:可以在多项式级时间复杂度内解决;
NP问题:可以在多项式级时间复杂度内被验证
NP-hard问题:指问题S,满足任何NP问题都可以在多项式级时间复杂度内被归约为S(归约:即被归约的NP问题与S的答案相同,当解决了S时,就同时解决了所有的NP问题)。可以理解为,这是一个比所有NP问题都难的问题;

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值