小样本学习
文章平均质量分 79
RitaRao
it is ok
展开
-
小样本学习论文阅读 | Confess: A framework for single source cross-domain few-shot learning, ICLR 2022 poster
本文提出了一个“对比学习和特征选择系统”(Comparative learning and Feature Selection System)的跨域小样本学习框架Confess,解决了基类和新类之间存在较大域偏移的问题。原创 2022-11-17 16:30:26 · 835 阅读 · 2 评论 -
小样本元学习论文阅读 | Few-shot Learning with Noisy Labels, Facebook, CVPR2022
针对noisy few-shot learning问题,提出一个新的transformer架构——TraNFS,用于聚合支持集样本特征得到类的原型,另一方面判断样本标签是否正确;方法通常假定支持集是干净的,也就是样本标记是准确的。存在噪声的情况下,很容易想到用中值作为均值的替代方案。原创 2022-11-10 20:06:18 · 1005 阅读 · 0 评论 -
论文阅读 | Sharp-MAML: Sharpness-Aware Model-Agnostic Meta Learning, ICML2022
模型不可知元学习(MAML)是目前小样本元学习的主要方法之一。尽管MAML有效,但由于固有的双层结构,其优化可能具有挑战性。具体而言,这种双层结构使得MAML的损失面可能有更多的鞍点和局部极小值,也就更容易陷入局部最优,而不是其经验风险最小化对应值。为了尽可能的避免陷入局部最优,本文利用最近的锐度感知最小化(sharpness aware minimization),提出了一种sharpness aware MAML方法,称之为Sharp-MAML。实验部分Sharp-MAML达到了SOTA的效果。...原创 2022-08-09 14:31:31 · 1320 阅读 · 0 评论 -
元学习论文阅读 | CAD: Co-Adapting Discriminative Features for Improved Few-Shot Classification, CVPR2022
本文主要是参考FEAT的方法进行了进一步的扩展,提出CAD方法,利用了query的信息,并且对query同样进行了信息聚合来微调表示,取得的效果非常好。原创 2022-06-20 15:35:02 · 1177 阅读 · 3 评论 -
Dynamic Distillation Network for Cross-Domain Few-Shot Recognition with Unlabeled Data, NeurIPS 2021
本文基于动态蒸馏的方法,使用标记源数据和未标记目标数据来学习目标域上的更好表示。原创 2022-03-03 15:18:17 · 3200 阅读 · 1 评论 -
元学习论文解读 | Learning a Universal Template for Few-shot Dataset Generalization, ICML 2021
本文将FiLM用在批正则化层(可以理解成条件批正则化),跨不同的数据集联合训练特征提取器,也就是在数据集之间共享卷积层的参数,但为每个数据集分配一组特定的批量归一化参数。原创 2022-02-15 15:50:23 · 1741 阅读 · 0 评论 -
论文解读 | Negative Margin Matters: Understanding Margin in Few-shot Classification, ECCV2020 spotlight
本文第一次从理论和实验两方面证明带负margin的softmax损失在小样本分类中惊人地有效原创 2022-01-07 10:39:16 · 1066 阅读 · 5 评论 -
元学习论文解读 | Repurposing pretrained models for robust out-of-domain few-shot learning, ICLR2022
针对在测试时元训练集不可获得的情况下的跨域小样本分类任务问题,提出一种基于不确定性的步长适应和对抗数据增强的方法。原创 2022-01-07 10:20:10 · 2404 阅读 · 0 评论 -
元学习论文解读 | XtarNet: Learning to Extract Task-Adaptive Representation for Incremental FSL, ICML 2020
motivation本文关注的是增量小样本学习问题,希望从新的经验中获取新的知识,并将其与从先前经验中获得的先前知识相融合。contribution本文提出了XtarNet,它学习提取任务自适应表示(Task-Adaptive Representation, TAR)。给定一个新任务,从元训练模块中提取的新特征与从预训练模型中获得的基本特征混合作为TAR,那么TAR就包含对新类别和基本类别进行分类的有效信息。利用TAR对base & novel classifiers进行调制以适应给定的原创 2021-09-14 14:29:33 · 473 阅读 · 0 评论 -
元学习论文解读 | Cross-Domain Few-shot Classification via Learned Feature-Wise Transformation, ICLR 2020
目录1. motivation2. contribution3. 问题定义4. Feature-wise transformation layer5. Learning the feature-wise transformation layer6. 实验部分7. 总结1. motivation虽然基于度量的元学习方法在解决小样本问题时性能良好,但由于特征分布在不同领域之间的巨大差异,这些方法往往无法推广到不可见的领域。2. contribution本文所提出的FW原创 2021-09-02 21:29:33 · 903 阅读 · 0 评论 -
元学习论文解读 | How to train your MAML , In ICLR 2019.
目录motivationcontribution核心内容Related WorkProblemsofMAML训练不稳定性二阶导数代价缺少批处理归一化统计量的积累共享(跨步)批处理规范化偏差共享内部循环(跨步和跨参数)学习率固定的外环学习率Stable,automated and improved MAML: MAML++梯度不稳定性→多步损失优化(MSL)二阶导数成本→导数退火DA缺少Batch Normalization统计信息累积→Per-..原创 2021-09-01 09:35:58 · 2294 阅读 · 0 评论 -
元学习论文解读 | 《Meta-SGD: Learning to Learn Quickly for Few Shot Learning.》
motivation梯度是一种有效的数据拟合方向,但在小样本情况下,梯度可能会导致过拟合,这也使得选择学习速率变得棘手,MAML中需要昂贵的超参数调优。需要的是一种方法来决定所有的学习因素(优化方向和长度),以最大化泛化能力而不是数据拟合能力的方式。另外收敛速度也十分重要。contribution提出Meta-SGD算法,初始化、更新方向和学习率都是通过元学习来学习的,图中既决定了方向又决定了学习率。论文主要内容introduction在半监督学习中,用大量未标记数据来增加标记的原创 2021-08-31 19:22:02 · 1141 阅读 · 0 评论