![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文阅读
文章平均质量分 93
weixin_39450145
这个作者很懒,什么都没留下…
展开
-
2018-ECCV-《End-to-End Incremental Learning》论文阅读笔记
2018-ECCV-《End-to-End Incremental Learning》论文地址:https://arxiv.org/abs/1807.09536代码地址:https://github.com/fmcp/EndToEndIncrementalLearning摘要尽管深度学习方法近年来因其最先进的结果而脱颖而出,但依旧面临着灾难性遗忘的问题——当新类增量添加进行训练时,整体性能急剧下降。这是由于现在的神经网络架构需要整个数据集(包括旧类和新类的样本)来更新模型,但是随着类原创 2022-05-24 15:38:25 · 602 阅读 · 1 评论 -
2020-CVPR-《Mnemonics Training:Multi-Class Incremental Learning Without Forgetting》论文阅读笔记
2020-CVPR-《Mnemonics Training Multi-Class Incremental Learning Without Forgetting》论文地址:代码地址:GitHub - yaoyao-liu/class-incremental-learning: PyTorch implementation of AANets (CVPR 2021) and Mnemonics Training (CVPR 2020 Oral)原创 2022-05-18 00:06:08 · 850 阅读 · 0 评论 -
2017-CVPR-《iCaRL:Incremental Classifier and Representation Learning》论文阅读笔记
2017-CVPR-《iCaRL:Incremental Classifier and Representation Learning》论文地址:CVPR 2017 Open Access Repository代码地址:GitHub - srebuffi/iCaRL摘要1)人工智能道路上的一个主要问题是开发增量学习系统,随着时间推移,从数据流中学习越来越来的概念。2)In this work,我们介绍了一种新的训练策略iCaRL,能够以类增量的方式进行学习:只有少部分数量类别的训练数据必须同原创 2022-05-05 17:50:36 · 1531 阅读 · 0 评论 -
2016-ECCV-《Learning without Forgetting》论文阅读笔记
2016-ECCV-《Learning without Forgetting》论文地址:Learning Without Forgetting | SpringerLink代码地址:https://github.com/lizhitwo/LearningWithoutForgetting摘要1)在构建统⼀的视觉系统或逐步向系统添加新功能时,通常的假设是,所有任务的练数据始终是可用的。 2)然而,随着任务数量的增加,对此类数据的存储和重新训练变得不可行。这就出现了一个新的问题,当我们向卷.原创 2022-05-03 17:17:33 · 1666 阅读 · 6 评论