![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
continual learning
文章平均质量分 93
祥瑞Coding
机器学习,计算机视觉
展开
-
基于检测任务的小样本增量学习 Few-shot Object Detection via Feature Reweighting. ICCV 2019论文详解
新加坡国立大学发表在ICCV 2019上。解决小样本目标检测问题。目前目标检测的增量都与小样本学习相结合,可能因为小样本的目标检测虽然性能较差,但是提升较大,因此容易产生一些贡献点和达到SOTA。解决方案也是按照类似于,分类任务的方法,先将模型分为特征提取阶段和功能阶段,然后在功能阶段进行改进,从而使得特征提取阶段可以共用或者复用。论文地址:[1812.01866] Few-shot Object Detection via Feature Reweighting (arxiv.org)目录原创 2021-05-16 14:48:13 · 3100 阅读 · 8 评论 -
增量学习方法分类及近两年论文汇总
目录一、数据增量与类别增量二、常见增量学习结构三、增量学习方法分类四、总结及论文链接4.1 总结4.2 相关论文链接一、数据增量与类别增量增量学习任务分为,数据增量和类别增量。数据增量过程中,增量任务和原始任务之间没有新类别出现,两者具有相同的类别。本文对广义和狭义的类别增量进行了明确的定义,对于增量任务,具有如下的定义:C表示所有的类别 Tt表示增量任务t之中的类别,相当于C的子集 DcC表示所有类别C中子类c的样本 DtT表示增量任务t中类别原创 2021-05-12 20:34:44 · 14702 阅读 · 25 评论 -
无监督增量学习 Unsupervised Class-Incremental Learning Through Confusion. ICLR 2021 被拒文章
乔治亚州研究所提出的,发表在ICLR2021上。针对无监督的类别增量提出了本文的方法。本文基于无监督,增量数据没有标签,因此范畴就是选用了增量学习之中最宽松的限制,即基于样本回放的增量学习方法,旧样本会被存储在模型Memory之中。论文地址:[2104.04450] Unsupervised Class-Incremental Learning Through Confusion (arxiv.org)目录1.贡献点1.1思路1.2 贡献点2.方法2.1 settings2.原创 2021-05-12 20:21:48 · 3137 阅读 · 8 评论 -
基于模型结构增扩的增量学习方法 归纳和详解
基于模型结构增扩的方法,本文对近两年基于模型结构扩张的增量学习方法进行归纳总结和详解。文章链接如下:RKR论文详解 Rectification-based Knowledge Retention for Continual Learning. CVPR 2021 基于知识矫正的持续学习_祥瑞的技术博客-CSDN博客DER论文详解DER: Dynamically Expandable Representation for Class Incremental Learning, CVPR 2021_原创 2021-05-11 22:35:22 · 1980 阅读 · 1 评论 -
基于拓扑图的增量学习方法 论文归纳与详解
近两年,基于拓扑图模型的方法开始得到应用。这种方法也是将模型分为特征提取模型和分类器模型,特征提取模型用于对特征进行提取。拓扑图模型多用于特征分类阶段,用于学习不同类别之间的关系。因为增量任务和拓扑结构有一定的类似,即有的任务之间联系紧密,有的任务之间联系不紧密,这种对应的关系可以通过拓扑图模型进行学习,从而应用在分类器上,提升模型性能。本文将基于拓扑图的增量学习方法进行归纳。CVPR2020 ,FSCIL Few-shot Class Incremental Learning。将NG网络运用到增量原创 2021-05-11 22:22:54 · 2850 阅读 · 1 评论 -
Few Shot Incremental Learning with Continually Evolved Classifiers论文详解 基于持续进化分类器的小样本类别增量学习CVPR2021
Few Shot Incremental Learning with Continually Evolved ClassifiersCVPR2021,由新加坡南洋理工大学本文利用Graph即图模型,将拓扑结构与增量模型向结合,从而取得不错的效果。类似论文,均是基于双阶段的增量模型,一个是特征提取模块,另一个是分类器模块。对于Rehearsal的方法而言,特征提取模块可能一起更新。对于本文的方法而言,特征提取模块一旦初始训练好,就固定下来,只更新分类器模块。本文的分类器模块与GAT(.原创 2021-05-10 22:13:47 · 3190 阅读 · 2 评论 -
TPCIL论文详解,基于持续改进分类器的增量学习Topology-Preserving Class-Incremental Learning,ECCV2020
ECCV 2020论文地址:https://doi.org/10.1007/978-3-030-58529-7_16代码地址:论文中称,代码 will be released西交大发表的。单看标题推测是运用Graph和拓扑学的知识来进行增量学习。基于正则化的增量学习方法。近两年很多论文都有类似想法,就是将CNN与Graph相结合来进行增量学习,用CNN提取模型特征,获得embedding信息,Graph网络用于学习特征之间的拓扑关系。目录1.贡献点2.方法2.1总体方法2.2原创 2021-05-10 21:55:24 · 1315 阅读 · 1 评论 -
基于拓扑的增量学习Topology Preserving Class-Incremental learning论文详解ECCV2020
ECCV 2020论文地址:https://doi.org/10.1007/978-3-030-58529-7_16代码地址:论文中称,代码 will be released西交大发表的。单看标题推测是运用Graph和拓扑学的知识来进行增量学习。基于正则化的增量学习方法。近两年很多论文都有类似想法,就是将CNN与Graph相结合来进行增量学习,用CNN提取模型特征,获得embedding信息,Graph网络用于学习特征之间的拓扑关系。CVPR2020 ,FSCIL Few-sho...原创 2021-05-10 21:47:31 · 1997 阅读 · 4 评论 -
Supervised Contrastive Replay 论文详解 通过NCM分类器和图片回放实现增量学习
论文地址:[2103.13885] Supervised Contrastive Replay: Revisiting the Nearest Class Mean Classifier in Online Class-Incremental Continual Learning (arxiv.org)Supervised contrastive replay: revisiting the nearest class mean classifier in online class-incrementa原创 2021-04-30 23:40:49 · 3764 阅读 · 6 评论 -
论文详解Memory Efficient Incremental learning through feature adaptation. ECCV2020 基于增量特征映射
CVPR2020,由Google Research提出。看标题是基于样本回放的方法。如何在网络变化之后,将旧特征映射到新特征。类似的方法例如SDC,Semantic Drift Composition。SDC: SDC论文详解Semantic Drift Compensation for Class-Incremental Learning. CVPR 2020目录1.贡献点1.1 基于rehearsal方法的分类1.2 贡献点2.框架2.1 特征提取+分类器2.2.原创 2021-04-27 22:57:11 · 1885 阅读 · 2 评论 -
差文解析 IIRC: Incremental Implicitly-Refined Classification
论文地址:[2012.12477] IIRC: Incremental Implicitly-Refined Classification (arxiv.org)不介意浪费时间的可以把原论文扒出来读一读,见识一下这篇论文的差。(手动狗头)。不介意浪费时间的可以读一读博主的文章,因为博主已经浪费时间读了一下这个论文,还写了一下。(手动狗头)本篇论文比较差劲,方法层面相当于提出一个IIRC(Incremental implicitly refined classification),但是这个IIRC原创 2021-04-26 23:24:48 · 957 阅读 · 4 评论 -
FSCIL论文详解 Few-Shot Class-Incremental Learning, CVPR2020
CVPR2020论文地址:https://arxiv.org/pdf/2004.10956.pdfCVPR2020 本篇,FSCIL,西交大提出的。将NG网络运用到增量学习之中。ECCV2020,TPCIL,也是西交大的同一个人发的,Topology Preserving Class-Incremental learning,同样的框架,即CNN+拓扑结构,部分内容换了一个写法。CVPR2021与本篇非常类似,Few-Shot Incremental Learning with Cont原创 2021-04-26 22:59:15 · 5629 阅读 · 3 评论 -
DER论文详解DER: Dynamically Expandable Representation for Class Incremental Learning, CVPR 2021
论文地址:[2103.16788] DER: Dynamically Expandable Representation for Class Incremental Learning (arxiv.org)代码地址:https://github.com/Rhyssiyan/DER-ClassIL.pytorch.本文上海科技大学和中国科学院大学共同发表。发表在CVPR2021. 本文是通过增加模型权值来适应增量任务。也运用了memory,相当于基于rehersal和模型的方法的结合。本文主要的改进在原创 2021-04-26 22:52:08 · 5561 阅读 · 10 评论 -
CEC论文详解Few Shot Incremental Learning with Continually Evolved Classifiers. CVPR2021
Few Shot Incremental Learning with Continually Evolved ClassifiersCVPR2021,由新加坡南洋理工大学发表本文利用Graph即图模型,将拓扑结构与增量模型向结合,从而取得不错的效果。论文地址:[2103.16788] DER: Dynamically Expandable Representation for Class Incremental Learning (arxiv.org)目录1.贡献点2. 方.原创 2021-04-25 23:31:46 · 4074 阅读 · 2 评论 -
PODNet: Pooled Outputs Distillation for Small-Tasks Incremental Learning论文详解ECCV2020
ECCV2020论文地址:https://doi.org/10.1007/978-3-030-58565_6代码地址:https://github.com/arthurdouillard/incremental learning.pytorch目录1.贡献点2.方法2.1 pool类型2.2 POD(Pooled Outputs Distillation)方法2.3 LSC(Local Similarity Classifier)三、实验结果3.1 消融实验3.2原创 2021-04-25 23:19:51 · 4679 阅读 · 9 评论 -
CVPR2021论文详解Rainbow Memory: Continual Learning with a Memory of Diverse Samples
论文地址:https://arxiv.org/abs/2103.17230代码地址:https://github.com/clovaai/rainbow-memory本文基于样本回放的方法,本文某种意义上借鉴了主动学习中找难样本的方法,将找到的难样本作为Memory中用于回放的样本。本文的意义在于如何寻找难样本。1.贡献点因为本文涉及memory,因此可以看作基于样本回放的增量学习方法。本文解决的问题是,如何选取更好的样本来放置在Memory之中。基于增量学...原创 2021-04-25 22:57:52 · 3512 阅读 · 3 评论 -
SDC论文详解Semantic Drift Compensation for Class-Incremental Learning. CVPR 2020
论文地址:https://arxiv.org/abs/2004.00440一、贡献点文章发表于CVPR2020,用于解决增量学习中类别增量的问题。贡献点有下面几个:不同于以往的交叉熵loss, 本文的embedding network提出了triple loss,关于triple loss会在后面进行介绍,triple loss简单理解为基于特征空间质心的loss,样本提取特征后,距离特征空间的离质心越近,则loss越小,反之则越大。 本文的SDC(Semantic Dr...原创 2021-04-18 21:11:34 · 2340 阅读 · 0 评论 -
RKR论文详解 Rectification-based Knowledge Retention for Continual Learning. CVPR 2021 基于知识矫正的持续学习
概览:RKR这篇文章,基于网络结构进行增量学习。将新的类别的信息存储在额外的网络结构之中,文中称为rectification generator (RG)生成器和scaling factor generator (SFG)生成器。从而解决Few-shot和zero-shot增量学习的问题.论文地址:https://arxiv.org/abs/2103.16597目录一、贡献点概览二、方法2.1 方法综述2.2 权重矫正2.3 RG和SFG网络的具体实现2.4 新增内存占用原创 2021-04-15 23:11:35 · 1939 阅读 · 5 评论