小样本学习
文章平均质量分 78
分享与小样本学习相关的知识,主要是论文的阅读笔记和翻译
深视
这个作者很懒,什么都没留下…
展开
-
论文阅读笔记《RelationNet2: Deep Comparison Columns for Few-Shot Learning》
小样本学习&元学习经典论文整理||持续更新核心思想 本文提出一种基于度量学习的小样本学习算法(DCN),从论文的题目能够看出本文是基于RelationNet进行改进的,但与RelationNet相比本文有许多新的改进。首先在网络基础结构上本文是引入了SENet网络,取代了Conv-4的结构;其次与RN只对特征提取网络最后输出的特征图进行相关性计算不同,本文对特征提取网络中间阶段的输出结果都进行了相关性计算;最后与常规特征提取网络直接输出特征图的方式不同,本文输出的是特征图的均值和方差,然后再通原创 2020-10-12 16:26:19 · 2821 阅读 · 2 评论 -
论文阅读笔记《Few-Shot Learning Through an Information Retrieval Lens》
小样本学习&元学习经典论文整理||持续更新核心思想 本文提出一种完全不同的小样本学习方法(mAP-SSVM,mAP-DLM),从信息检索(information retrieval)的角度来解决小样本学习问题,与之前episode中分成支持集和查询集的方式不同,本文将batch内的每个样本都看作一个查询样本,并且从其他所有样本中检索出与当前查询样本同一类别的样本。网络输出的是其他样本与当前查询样本相似度的排序结果,为评价输出结果的优劣,本文采用mAP作为优化的目标函数,为方便后文描述,这里简单原创 2020-10-10 21:00:52 · 997 阅读 · 1 评论 -
论文阅读笔记《Distribution Consistency Based Covariance Metric Networks for Few-Shot Learning》
小样本学习&元学习经典论文整理||持续更新核心思想 本文提出一种基于度量学习的小样本学习算法(CovaMNet),其从二阶统计量(协方差)的角度出发,通过构建各个样本的特征向量之间的协方差矩阵实现类别表征与距离度量。该算法的实现过程如下图所示如图所示,查询集和支持集样本分别经过CNN提取特征,得到对应的特征图Xi∈Rh×w×dX_i\in \mathbb{R}^{h\times w\times d}Xi∈Rh×w×d,然后计算同一类别下每个样本特征图之间的协方差矩阵Σc\Sigma_cΣ原创 2020-10-08 14:30:40 · 2333 阅读 · 0 评论 -
论文阅读笔记《Large Margin Few-Shot Learning》
小样本学习&元学习经典论文整理||持续更新核心思想 本文提出一种基于度量学习的小样本学习算法(L-GNN,L-PN),其思想与上篇文章《Deep Triplet Ranking Networks for One-Shot Recognition》非常相似,就是提出一种三元损失函数,来引导网络拉近类内距离,增加类间距离。算法的思想如下图所示图(a)显示了不带有Large Margin损失函数训练的到的分类器结果,可以看到黄色类别样本和蓝色类别样本之间的距离非常接近,而且查询样本(蓝色十字)距原创 2020-09-26 11:22:58 · 1081 阅读 · 0 评论 -
论文阅读笔记《Deep Triplet Ranking Networks for One-Shot Recognition》
小样本学习&元学习经典论文整理||持续更新核心思想 本文提出一种基于度量学习的小样本学习算法,其核心在于提出一种三元排序损失(triplet ranking loss)。原有基于度量学习的小样本学习算法通常是计算两个样本之间的相似程度,以此进行分类,并计算分类损失。而本文则是提出一个三元损失的概念,输入样本包含两个正向(positive)样本和一个负向(negative)样本,分别计算两两之间的相似度,最后计算一个三元分类损失。算法流程如下图所示 如上图所示,两个正向样本xpos(1),原创 2020-09-23 14:20:24 · 1214 阅读 · 2 评论 -
论文阅读笔记《Generative Adversarial Residual Pairwise Networks for One Shot Learning 》
小样本学习&元学习经典论文整理||持续更新核心思想 本文提出一种基于度量学习的小样本学习算法(SRPN),作者提出了两个观点,一、使用可学习的神经网络用于距离计算效果优于固定的距离度量函数;二、损失函数上引入强力的正则化项能够有效的改善分类效果。针对第一个观点,作者提出了Skip Residual Pairwise Network (SRPN)用于取欧氏距离或余弦距离等固定的距离度量函数,网络的结构如下图所示 支持集样本xtx_txt和查询集样本xxx首先经过一个ResNet构成的特征原创 2020-09-22 15:25:56 · 1614 阅读 · 2 评论 -
论文阅读笔记《Instance-Level Embedding Adaptation for Few-Shot Learning》
小样本学习&元学习经典论文整理||持续更新核心思想 本文提出一种基于度量学习的小样本学习算法(AAM),作者认为由于测试集和训练集的样本是来自不同分布的,且测试集的支持集中仅包含少量的样本,因此生成的类别表征是不可靠的。另一方面由于查询样本也存在较大的随机性,可能对应类别的类别表征并不相似,这样就容易导致误分类。作者提出一种注意力自适应模块(Attention Adaptation Module,AAM)用于调整类别表征和查询样本的特征向量,使其与对应类别的类别表征之间的距离更近。 本文思原创 2020-09-21 21:38:09 · 1829 阅读 · 2 评论 -
论文阅读笔记《Principal characteristic networks for few-shot learning》
小样本学习&元学习经典论文整理||持续更新核心思想 本文提出一种基于度量学习的小样本分类算法(PC-Net),其中最重要的改进点是作者提出了本质特征(Principal Characteristic )的概念。作者首先指出PN网络中使用取平均值的方法来计算原型(类别表征)的方式是不合适的,因为这样无法区分各个支持集样本的特征向量对于原型的贡献区别,这种做法其实是认为每个样本的贡献是均等的。作者认为在计算原型时应该为每个样本赋予相应的权重,再进行加权求和得到该类别对应的原型,这样得到的原型就是所原创 2020-09-19 15:24:00 · 1179 阅读 · 1 评论 -
论文阅读笔记《Self-attention relation network for few-shot learning》
小样本学习&元学习经典论文整理||持续更新核心思想 本文提出一种基于度量学习的小样本学习算法(SARN),其在Relation Network的基础上增加了自注意力机制,使网络能够提取到非局部的远距离的依赖信息。这是什么意思呢?就是普通的卷积神经网络只能提取到局部区域(感受野)内的依赖关系,而自注意力机制则是希望寻找到每个像素点与其他所有像素点之间的依赖关系,或者叫做相关性。这样做的原因是,支持集图像和查询集图像中统一特征的物体其空间位置可能并不相同,比如两幅狗的照片,一张图片中狗的尾巴在图像原创 2020-09-18 11:46:22 · 2323 阅读 · 12 评论 -
论文阅读笔记《Few-shot Classification via Adaptive Attention》
小样本学习&元学习经典论文整理||持续更新核心思想 本文提出一种基于注意力机制的小样本学习算法。作者认为基于参数优化的元学习算法优化过程过于复杂,而基于度量学习的小样本学习算法,虽然更加简单有效,但缺少对于新任务的适应能力。本文利用注意力机制根据支持集图像的特征图和查询集图像的特征图,得到对应的注意力图(Attention Maps),将注意力图与查询集图像的特征图做逐元素相乘,得到了优化后的特征图,再利用其进行分类。整个网络包含三个部分:特征提取网络,自适应注意力模块,分类器,网络结构如下图原创 2020-08-24 16:25:40 · 2209 阅读 · 2 评论 -
论文阅读笔记《PARN: Position-Aware Relation Networks for Few-Shot Learning》
小样本学习&元学习经典论文整理||持续更新核心思想 本文提出一种基于度量学习的小样本学习算法(PARN)。本文是对于Relation Network进行改进,作者认为普通的CNN特征提取网络只会在目标对象所在的位置具有较高的相应,如果支持集中的图像和查询集中的图像,其目标物体不在相同的位置时,其得到的特征图就不能很好的对应了。比如支持集图像中的目标物体在(x1,y1)(x_1,y_1)(x1,y1)处,而查询集图像对应的目标物体在(x2,y2)(x_2,y_2)(x2,y2)处,在计算原创 2020-08-22 16:28:08 · 1893 阅读 · 4 评论 -
论文阅读笔记《Few-Shot Image Recognition with Knowledge Transfer》
小样本学习&元学习经典论文整理||持续更新核心思想 本文提出一种基于语义信息的小样本学习算法(KTN)。作者称其为知识迁移(Knowledge Transfer),但其实就是利用目标的标签包含的语义信息作为一种先验知识,来辅助目标分类。整个模型分成视觉特征学习模块(Visual Feature Learning Module),知识迁移模块(Knowledge Transfer Module)和视觉-知识融合模块(Vision-Knowledge Fusion Module),整个网络的结构如原创 2020-08-21 17:12:31 · 2346 阅读 · 8 评论 -
论文阅读笔记《Learning Compositional Representations for Few-Shot Recognition》
小样本学习&元学习经典论文整理||持续更新核心思想 本文提出一种基于语义信息的小样本学习算法(comp),作者的想法就是利用目标物体的属性描述特征作为一种信息的补充,通过增加损失函数中的正则化项,来增强图像特整提取网络的表征能力,由此提高小样本学习的效果。比如对于一只鸟,它的属性描述特征就包含羽毛的形式,翅膀的颜色,胸口的颜色等等,有些时候甚至只需要知道关键属性的描述特征就能推断出这个鸟的种类了。如图(a)所示,图片xix_ixi经过CNN特征提取网络fθf_{\theta}fθ,得到原创 2020-08-20 17:07:59 · 1260 阅读 · 1 评论 -
论文阅读笔记《Few-Shot Learning with Global Class Representations》
小样本学习&元学习经典论文整理||持续更新核心思想 本文提出一种基于度量学习的小样本学习算法。与其他算法将训练集分成基础类别和新类别,进行两个阶段的训练方式不同,本文将包含大量样本的基础类别和包含少量样本的新类别合在一起进行训练,得到每个类别的表征(原型)称之为全局类别表征(Global Class Representations,GCR)。然后对于每个Episode中的支持集样本得到对应的Episode类别表征(Episode Class Representations,ECR),利用一个称原创 2020-08-19 17:13:07 · 1545 阅读 · 0 评论 -
论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》
小样本学习&元学习经典论文整理||持续更新核心思想 本文提出了一种基于度量学习的小样本学习算法(TEAM),与其他基于度量学习的算法相比,本文在特征提取阶段采用了一种Task Internal Mixing (TIM)数据增强方法,设计了一种能够根据每个Episode进行自适应调整的距离度量方法Episodic-wise Adaptive Metric(EAM),并采用了一种双向相似性度量方法(Bi-SIM)来计算分类概率。算法的处理过程如下图所示 首先在特征提取阶段采用了TIM的数据增原创 2020-08-18 18:30:43 · 932 阅读 · 0 评论 -
论文阅读笔记《SimpleShot: Revisiting Nearest-Neighbor Classification for Few-Shot Learning》
核心思想 本文提出一种基于最近邻方法的小样本学习算法(SimpleShot),作者指出目前大量的小样本学习算法都采用了元学习的方案,而作者却发现使用简单的特征提取器+最近邻分类器的方法就能实现非常优异的小样本分类效果。本文首先用特征提取网络fθf_{\theta}fθ+线性分类器在一个基础数据集上对网络进行训练,将训练得到的特征提取网络增加一个简单的特征变换(中心化和L2规范化),再加上一个最近邻分类器,直接对小样本数据集进行分类。 中心化是指先计算整个基础数据集上特征向量的平均值,然后用小样本数原创 2020-08-15 11:59:28 · 1880 阅读 · 0 评论 -
论文阅读笔记《Diversity with Cooperation: Ensemble Methods for Few-Shot Classification》
核心思想 本文提出一种基于集成学习的小样本学习算法(Robust-dist),集成学习顾名思义就是将多个模型集成在一起,根据多个模型输出的结果,通过投票法或者平均法计算出最终的结果。集成学习能够消除模型之间的分歧,假设10个模型有7个都预测这幅图片是只猫,那么这幅图片是猫的概率就很高了。实验表明,即使每个模型的性能都一般,但多个模型集成后其性能也会有明显提升,正所谓三个臭皮匠顶个诸葛亮。集成学习最重要的地方在于如何在训练时处理多个模型之间的关系,一方面我们希望他们之间要有足够的多样性,否则10个一样的模原创 2020-08-14 16:33:52 · 1343 阅读 · 1 评论 -
论文阅读笔记《Boosting Few-Shot Visual Learning with Self-Supervision》
核心思想 本文提出一种利用额外自监督任务提高小样本学习能力的算法,自监督学习是指模型在训练时只需要图像本身的信息,而不需要额外的标注信息。本文的核心思想就在于将额外的自监督学习任务与小样本分类任务结合起来,二者共用一个特征提取网络,利用自监督学习任务提高特征提取网络的表征能力,从而改善小样本分类任务的效果,该算法的实现方式如下图所示。 本文选择的小样本分类算法有PN和CC(基于余弦相似性的方法,如Dynamic和Imprinting),本文选择的自监督学习任务有图像旋转预测和图块相对位置预测(图中原创 2020-08-13 15:40:49 · 2328 阅读 · 1 评论 -
论文阅读笔记《Few-Shot Image Recognition by Predicting Parameters from Activations》
核心思想 本文提出一种直接预测分类器权重参数的小样本学习算法。作者的想法是对于普通的分类算法,无非就是将特征提取网络输出的特征向量a(x)a(x)a(x)输入到分类器(全连接层+softmax)中,与全连接层中的权重参数WWW相乘,计算内积,再用softmax函数转化为概率值,整个过程的目的就是希望a(x)⋅wya(x)\cdot w_ya(x)⋅wy尽可能的大(yyy表示样本xxx对应的类别)。对于大规模的数据集,分类器中的权重参数是能够训练得到的,但对于小样本数据集就很难通过训练得到合适的权重,因原创 2020-08-12 16:24:20 · 1250 阅读 · 4 评论 -
论文阅读笔记《Auto-Meta: Automated Gradient Based Meta Learner Search》
核心思想 本文提出一种基于NAS的小样本学习算法(Auto-Meta),基本思路就是将NAS算法PNAS和元学习算法Reptile相结合。首先将网络结构固定住,利用Reptile算法训练网络参数;然后基于几个效果较好的网络结构,再去搜索更复杂的结构;最后反复重复上述两个步骤,直到搜索到最优的网络结构和网络参数,训练的目标函数如下其中θ\thetaθ表示网络参数,AAA表示网络结构,UUU表示网络参数更新算法,本文采用Reptile算法,相对于MAML算法,Reptile算法利用一阶梯度进行近似计算,原创 2020-08-09 12:09:12 · 729 阅读 · 0 评论 -
论文阅读笔记《Low-Shot Learning with Imprinted Weights》
核心思想 本文提出一种基于特征提取+线性分类器的小样本学习算法(imprinting)。首先作者提出一个观点,他说其实许多基于特征提取+线性分类器的小样本分类算法和基于度量学习(特征提取+最近邻分类器)的算法在本质上是一样的,如下式所示式中xxx表示样本特征,p(x)p(x)p(x)表示样本xxx对应的类别表征,我们最小化二者之间的距离(基于度量学习),就相当于最大化二者之间的内积(基于特征提取+线性分类器)。既然如此,作者认为就不需要再通过SGD的方式来训练线性分类器的权重了,我们直接用训练样本得原创 2020-08-08 15:20:08 · 1383 阅读 · 0 评论 -
论文阅读笔记《Few-Shot Learning with Embedded Class Models and Shot-Free Meta Training》
核心思想 本文提出一种不限样本数量的(shot-free)小样本学习算法,算法本身与先前的方法都不同,但整体思想还是基于度量学习的。本文的算法拥有以下几个特性:开放集 Open Set,包含未知的,不断增长的,可能是无限多的新类;持续的 Continual,能够利用小样本数据不断改善模型的性能;不限样本数量的 Shot Free,不像其他算法规定每个类别的样本数量相同(1-shot或者5-shot),本文不限制样本数量,每个类别可以包含几个样本,也可以包含几百个样本;嵌入式类别模型 Embedded C原创 2020-08-07 18:04:29 · 1259 阅读 · 2 评论 -
论文阅读笔记《Gradient-Based Meta-Learning with Learned Layerwise Metric and Subspace》
核心思想 本文提出一种基于参数优化的小样本学习算法(MT-net),基本思路还是延续了MAML两级训练的元学习思想,作者在先前的元学习算法基础上增加了一个变换矩阵,得到变换网络Transformation Networks (T-net),在变换网络的基础上增加了一个二元掩码矩阵得到掩码变换网络Mask Transformation Networks (MT-net),网络的设计思路如下图所示。 如图a所示,在初始权重值的基础上,任务学习器会根据每个任务的损失对权重值进行更新得到不同任务对应的权重原创 2020-08-06 16:40:27 · 1965 阅读 · 3 评论 -
论文阅读笔记《MetAdapt: Meta-Learned Task-Adaptive Architecture for Few-Shot Classification》
核心思想 本文提出一种基于神经网络结构搜索(NAS)的小样本学习算法(MetAdapt),整体的思路其实与直接解读过的一篇文章《Meta-Learning of Neural Architectures for Few-Shot Learning》非常相似,但在一些具体的实现方法上还是各有特色的。首先,作者也是采用了经典的可微分NAS算法DARTS对网络结构进行搜索;为了适应小样本学习任务,作者在此基础上提出了MetAdapt Controllers结构,用于调整每个操作的权重系数;最后,作者采用了两级原创 2020-08-01 15:23:55 · 912 阅读 · 0 评论 -
论文阅读笔记《A closer look at few-shot classification》
核心思想 本文并没有提出新的小样本学习算法,而是对目前主流的小样本学习算法做了更加深入的比较和研究,提出了自己的一些观点。首先,作者按照统一的方式复现了Baseline方法(特征提取器+线性分类器),Baseline++方法(特征提取器+距离度量分类器),MN,PN,RN和MAML等元学习算法,这个过程中采用相同的backbone结构,相同的数据集,相同的训练策略。这样就能够在一个更加公平的基础上来比较各个算法之间的优劣。 如上图中的结果显示,Baseline++方法的性能被严重的低估了,在统一的原创 2020-07-31 16:30:10 · 2620 阅读 · 1 评论 -
论文阅读笔记《∆-encoder: an effective sample synthesis method for few-shot object recognition》
核心思想 本文提出一种基于数据增强的小样本学习算法,利用一个自动编码器(Auto-Encoder,AE)用于寻找同类别不同样本之间的变形(deformations,本文称其为Δ\DeltaΔ),然后在利用其为其他的类别样本生成新样本,最后利用扩充后的数据集训练分类器。 普通的自动编码器AE,是通过最小化重构信号X^\hat{X}X^和原始信号XXX之间的差异∥X^−X∥1\left \| \hat{X}-X\right \|_1∥∥∥X^−X∥∥∥1,来学习如何重构信号的。其中X^=D(E(X原创 2020-07-30 14:59:42 · 1896 阅读 · 5 评论 -
论文阅读笔记《Meta-learning with differentiable closed-form solvers》
核心思想 本文提出一种基于元学习的小样本学习算法(R2-D2,LR-D2),本文的整体框架沿用了元学习的方式,包含两个层次的训练过程:元训练和元测试。本文的主要改进是针对基学习器中的分类方法,既没有采用最近邻的方式,也没有采用全连接层的方式,而是采用了带有闭式解的可微分的回归方法——岭回归(Ridge Regression,R.R.)和逻辑回归(Logistic Regression,LR)。 首先还是先回顾下常规的元学习方法是如何实现的,元学习过程分为元训练和元测试阶段。元训练阶段就是利用元训练集原创 2020-07-29 16:15:38 · 2014 阅读 · 0 评论 -
论文阅读笔记《Meta-learning with Latent Embedding Optimization》
核心思想 本文提出一种基于参数优化的小样本学习算法(LEO),与MAML,Meta-SGD算法相比,本文最重要的改进就是引入了一个低维的隐空间(Latent Space)。为了方便理解本文,我们首先回顾一下MAML算法,其目标是通过元训练得到一个好的初始化模型θ\thetaθ,使得模型能够通过少量样本的微调训练就能快速的适应任务需求,得到任务Ti\mathcal{T}_iTi对应的模型参数θi′\theta_i'θi′。为了实现这一目标,MAML算法通过两个层次的训练,内层循环(inner loop原创 2020-07-28 19:25:21 · 4013 阅读 · 1 评论 -
论文阅读笔记《TapNet: Neural Network Augmented with Task-Adaptive Projection for Few-Shot Learning》
核心思想 本文提出一种基于度量学习的小样本学习算法(TapNet),其特点是设计了一个与任务相关的分类空间,在该空间内进行距离度量,而且每个类别的参考向量Φ\PhiΦ是通过学习更新得到的,而不是根据训练样本的特征向量计算得到的,这与PN和MN算法有明显的不同。整个算法的处理过程如下图所示。 与所有的采用Episode训练方式的算法一样,训练集包含支持集{(x1,y1),...,(xNc,yNc)}\left \{(x_1,y_1),...,(x_{N_c},y_{N_c})\right \}{(x原创 2020-07-27 21:22:25 · 3344 阅读 · 0 评论 -
论文阅读笔记《Learning Embedding Adaptation for Few-Shot Learning》
核心思想 本文主要是针对度量学习算法中的特征提取阶段进行了改进,之前的特征提取网络或者说嵌入式表征的(Embedding Representation)过程是与任务无关的(Task-agnostic),这就要求在训练集上得到的特征提取网络,要有足够强的泛化能力,使其提取的特征信息同时满足测试集中未见过的新样本。这一要求无疑是很难实现的,作者就想到让特征提取网络有针对性地提取与任务有关的(Task-specific)特征信息,这样就能更好的适应测试集中未见过的新样本了。为了实现这一目标,作者设计了一个自适原创 2020-07-25 16:35:55 · 4876 阅读 · 0 评论 -
论文阅读笔记《Low-shot Visual Recognition by Shrinking and Hallucinating Features》
核心思想 之前我解读过这篇文章(点此查看)结果那只是作者上传到arXiv上的早期版本,与作者最终在ICCV2017上发表的正文相差甚远,早期版本只是介绍了使用SGM进行正则化,提高特征提取网络表征能力的部分,而没有介绍利用生成模型进行数据扩充的过程(怪不得许多文章都把这篇论文划分到数据增强类型的算法,我当时还很奇怪)。首先本文确定了一种新的小样本学习的基准(benchmark),整个学习过程分成两个阶段:表征学习(representation learning)和小样本学习(low-shot learn原创 2020-07-23 14:32:47 · 3078 阅读 · 3 评论 -
论文阅读笔记《DPGN: Distribution Propagation Graph Network for Few-shot Learning》
核心思想 本文提出一种基于图神经网络的小样本学习算法(DPGN)。先前基于图神经网络的小样本算法通常将每个样本当作一个结点,然后通过结点之间的关系,来推导出未知结点的类别。本文不仅关心样本与样本之间的关系,而且关注样本的分布之间的关系。本文提出了一个双图神经网络模型,一个图用于描述样本(PG),一个图用于描述分布(DG)。PG通过聚合每个样本和其他所有样本之间的关系来得到DG,DG又利用每对样本分布之间的关系来优化PG,这种循环信息传递关系将实例级别和分布级别的关系融合起来。本文提出模型的整体流程如下图原创 2020-06-30 11:36:39 · 3551 阅读 · 0 评论 -
论文阅读笔记《TransMatch: A Transfer-Learning Scheme for Semi-Supervised Few-Shot Learning》
核心思想 本文提出一种基于迁移学习的半监督小样本学习算法(TransMatch)。整个算法并不复杂,首先利用带有标签的基础数据集训练特征提取网络,然后用该特征提取网络为新的数据集初始化分类器权重,最后用半监督学习的方式进一步更新整个网络。整个流程如下图所示 第一阶段:预训练阶段。这一阶段没有什么值得介绍的,就是用带有标签的基础数据集对特征提取器进行训练。 第二阶段:分类器权重“生成”阶段(Classifier Weight Imprinting)。在这一阶段,使用已经预训练好的特征提取网络,对原创 2020-06-29 16:45:17 · 2192 阅读 · 3 评论 -
论文阅读笔记《Adversarial Feature Hallucination Networks for Few-Shot Learning》
核心思想 本文提出一种基于数据增强的小样本学习算法(AFHN),利用生成对抗网络(GAN)实现数据集的扩充。数据增强的方法被认为可以增强类内样本方差的多样化,从而实现更加清晰地分类界限。先前的数据增强方法主要包含两类:一类是通过在基础数据集上学习一种变换映射,并将其直接应用到新的数据集上,得到映射后的合成图像用于数据扩充,这一类方法会破坏合成图像的区分能力(因为合成图像很粗糙,与原始类别并不相似);另一类方法是根据特定的任务生成对应的合成图像,这类方法保证了合成图像的区分能力,但特定的任务约束使得合成的原创 2020-06-29 11:54:08 · 2990 阅读 · 0 评论 -
论文阅读笔记《Attentive Weights Generation for Few Shot Learning via Information Maximization》
核心思想 本文提出一种基于权重生成的小样本学习算法(AWGIM),这种类型的方法之前在小样本目标检测算法中见到过,就是直接用一个生成器生成分类器的权重参数。本文与其他相关算法(LEO)的区别在于在生成分类器权重时,不仅考虑支持集图像,而且考虑查询集图像。为了实现这一目的,本文引入了互信息(Mutual Information,MI)和注意力机制。整个网络的流程如下图所示 首先,介绍一下什么是互信息MI——给定两个随机变量xxx和yyy,互信息I(x;y)I(x;y)I(x;y)表示当其中一个变量已原创 2020-06-28 21:35:53 · 2735 阅读 · 0 评论 -
论文阅读笔记《Adaptive Subspaces for Few-Shot Learning》
核心思想 本文提出一种基于度量学习的小样本分类算法(DSN)。作者引入了子空间的概念,为每种类别都寻找到一个适合的子空间,然后在子空间中进行距离度量,并预测类别。首先作者介绍了几种常见的基于度量学习的小样本分类器,其分类方式如下图所示(a)成对的分类器,分别计算查询样本对应的特征向量和每个支持样本对应的特征向量之间的距离,然后按照最近邻的思想预测类别,如Matching Network。(b)原型分类器,为支持集中每个类别计算出一个原型(每个类别所有样本特征向量的平均值),然后根据查询样本的特征向原创 2020-06-27 17:31:33 · 4306 阅读 · 2 评论 -
论文阅读笔记《Boosting Few-Shot Learning with Adaptive Margin Loss》
核心思想 本文在基于度量学习的小样本分类算法的基础上,通过引入类别相关(class-relevant)或任务相关(task-relevant)的自适应边缘损失(Adaptive Margin Loss),改进了原有算法的分类效果。本文的核心观点是可以利用不同类别之间的语义相似性来生成自适应边缘(Margin虽然翻译为边缘,但其实应该理解为两种类别之间的边界距离),具体地说就是让相似类别之间的边界类别比不相似类别之间的边界距离更大,如下图所示。 我们希望增大“狗”和“狼”之间的边界距离,以增强相似类原创 2020-06-27 11:29:17 · 3391 阅读 · 2 评论 -
论文阅读笔记《Learning to Select Base Classes for Few-shot Classification》
核心思想 本文提出一种通过优化基础类别选择的方式改善小样本学习的算法。许多小样本分类算法都是基于迁移学习的方式,首先在基础数据集上进行预训练,然后在新的小样本数据集上做微调训练。本文并没有研究如何改善特征提取网络或分类器的结构,而是另辟蹊径的考虑如何选择最佳的基础数据集,更具体地说就是选择哪些类别的基础数据集用于预训练。解决这一问题存在两大困难:1.如果对基础数据集中的所有类别组合都进行尝试,那么时间复杂度将相当高;2.没有一种可以直接描述基础数据集的类别选择和在新数据集上分类效果之间关系的方法。为了解原创 2020-06-25 12:36:28 · 1546 阅读 · 0 评论 -
论文阅读笔记《DeepEMD: Few-Shot Image Classification with Differentiable Earth Mover’s Distance》
核心思想 本文提出一种基于度量学习的小样本学习算法(DeepEMD)。之前的基于度量学习的小样本学习算法通常是利用一个特征提取网络将支持集图像和查询集图像映射到一个特征空间,然后再设计或选择一种距离度量方式,来描述支持集图像和查询集图像之间的相似程度,并以此进行类别预测。而本文则是将图片拆分成多个图块,然后引入一种新的距离度量方式陆地移动距离(Earth Mover’s Distance,EMD),计算查询集和支持集图像的各个图块之间的最佳匹配代价来表示二者之间的相似程度。 我们首先介绍下EMD的计原创 2020-06-24 14:43:13 · 6886 阅读 · 19 评论 -
论文阅读笔记《Instance Credibility Inference for Few-Shot Learning》
核心思想 本文提出一种基于数据增强的小样本学习算法(ICI)。本文的数据增强是通过自训练(self-training)的方式实现的,具体而言就是利用有标签的样本先训练得到一个分类器,然后预测无标签样本,得到伪标签。选择伪标签中置信度较高的样本,补充到训练集中,实现数据扩充。通过迭代训练的方式逐步改善分类器的效果。网络流程如下图所示 首先利用有标签样本训练特征提取器和线性分类器,然后无标签的样本经过特征提取和简单的线性分类后得到预测的伪标签,利用实例置信度推断模块(Instance Credibil原创 2020-06-23 18:11:36 · 2983 阅读 · 2 评论