![](https://img-blog.csdnimg.cn/20201025182005231.jpg?x-oss-process=image/resize,m_fixed,h_224,w_224)
少样本学习
文章平均质量分 94
本人研究方向是少样本学习,并着重于自监督学习方法。这里就记录一些好论文的阅读理解和我的科研总结吧~
辣椒油li
这个作者很懒,什么都没留下…
展开
-
元学习、迁移学习、对比学习、自监督学习与少样本学习的关系解读
文章目录前言一、对比自监督学习与FSL1.对比学习与自监督学习2.自监督学习与FSL二、元学习与FSL1.元学习是什么2.元学习与FSL三、迁移学习与FSL1.迁移学习2.迁移学习与FSL总结前言本人的研究方向是少样本图像分类,在阅读论文时会遇到很多元学习、迁移学习这样的名词,这些词在不同的论文中关系仿佛都不一样,人们的说法也不统一。因此在此记录一下自己的逻辑,希望不再混乱了~还有对比学习和自监督学习,最近自己也在看,并且和少样本学习(FSL)相关,就一起放在这里。文章中出现的ppt截图是自己讲组原创 2020-10-17 12:43:18 · 15712 阅读 · 16 评论 -
【论文理解】两篇最新提升度量学习效果的少样本分类论文探讨——QPN和DCAP算法
内容概览前言一、基于度量学习的少样本分类1.算法描述2.缺点二、DCAP算法介绍1.算法流程2.密集分类3.注意力池化(Attentive Pooling)三、QPN算法介绍1.算法流程2.多尺度特征3.特定类特征生成总结前言本博文要介绍的两篇论文是2021年3月底挂在arxiv上的新文章,它们都是对基于度量学习的少样本分类算法进行了改进,并且改进点都在构造更优的用于度量的图像特征和类特征上面。两篇文章的算法其实都不难,并且均采用了注意力以及关注图像小区域的密集特征方法。在本博文中对它们提出的核心技原创 2021-03-31 17:26:38 · 3222 阅读 · 6 评论 -
【论文理解 AAAI 2021】A search based fine-tuning strategy for few-shot learning
内容概览前言一、整体思想1. 研究背景2. 微调策略设计二、算法流程1. 训练特征提取器2. 遗传算法选择最优学习策略3. 新类上的微调三、实验结果总结前言这篇文章被AAAI2021录用,于2021年2月挂在arxiv上,在arxiv上面的题目是Partial Is Better Than All: Revisiting Fine-tuning Strategy for Few-shot Learning,论文的一作来自卡内基梅隆大学和港科大。文章的研究点是在少样本学习中如何更好地迁移知识,针对的是原创 2021-03-03 16:35:03 · 934 阅读 · 3 评论 -
【论文理解】Few-Shot Lifelong Learning
内容概览前言一、少样本增量学习概念二、少样本增量学习问题描述三、论文算法介绍1. 基础训练2. 增量训练选择可训练参数损失函数四、实验结果总结前言今天介绍的这篇论文和前面我看过的少样本学习方面论文的侧重点不一样,这篇 Few-Shot Lifelong Learning 于2021年3月1号发布在arxiv上,一作来自印度伊利诺伊理工学院。额,一个糟糕的…(╯‵□′)╯炸弹!•••*~●这篇文章的研究重点在于少样本情况下的增量学习,论文题目中的"Lifelong"即表明主题,这在日常生活生产中是.原创 2021-03-02 20:17:28 · 1532 阅读 · 4 评论 -
【论文理解】Spatial Contrastive Learning for Few-Shot Classification
内容概览前言一、空间对比学习(Spatial Contrastive Learning)1.对比学习2.全局对比损失3.空间对比损失二、特征的修正三、对比蒸馏(Contrastive Distillation)四、少样本分类五、实验结果总结前言这篇论文提出了一个采用非episodic training方法的少样本图像分类算法,作者来自巴黎萨克雷大学,于2020.12.26挂在arxiv上:论文链接这篇论文的实验结果比较好,并且在预训练时采用了注意力的思想,获得了一个良好的特征提取器。因此我把它的算法原创 2021-01-01 17:03:50 · 2946 阅读 · 4 评论 -
【论文理解】On Episodes, Prototypical Networks, and Few-shot Learning
内容概览前言一、Episodic learning缺点缺点1:样本采样受限缺点2:忽略了大量“关系”二、Neighbourhood Component Analysis (NCA)方法NCA算法NCA替代episodic的优势三、少样本分类四、实验结果度量分类方式对比训练样本采样方式对结果的影响episode超参数对结果的影响和其他FSL算法对比总结前言这是2020年NeurIPS的meta-learning workshop中的一篇oral presentatinon,论文代码被作者放在了githu原创 2020-12-23 16:26:16 · 2744 阅读 · 0 评论 -
【论文理解】Revisiting Unsupervised Meta-Learning: Amplifying or Compensating for the Characteristics of..
内容概览前言一、无监督元学习算法二、四个改进点1.Sufficient Episodic Sampling (SES) **为什么增加任务个数?** **如何增加任务个数?**2.Semi-Normalized Similarity metric (SNS)3.Hard Mixed Supports4.Task-specific Projection Head三、部分实验结果展示总结前言论文的名字太长了,放不进标题里,我再列一下论文的完整题目:Revisiting Unsupervised Me原创 2020-12-01 18:45:23 · 1471 阅读 · 1 评论 -
【论文理解】Uncertainty-Aware Few-Shot Image Classification
内容概览前言一、核心思想二、论文算法1.引入库2.读入数据三、实验结果总结前言提示:这里可以添加本文要记录的大概内容:例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。提示:以下是本篇文章正文内容,下面案例可供参考一、核心思想示例:pandas 是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。二、论文算法1.引入库代码如下(示例):import numpy as npimport pandas原创 2020-10-14 11:11:20 · 2991 阅读 · 6 评论 -
【论文理解】Shot in The Dark: Few-Shot Learning with No Base-Class Labels
内容概览前言一、核心思想二、论文算法1.符号介绍2.方法描述三、实验结果1.更深的网络效果更好2.更深的网络效果更好思考前言双节后看到一篇有点震撼我的少样本领域论文,又是一篇针对无监督少样本学习的最新进展报告。它的实验结果真真证明了GPU在深度学习中的重要性==!因此记录一下它简单的框架和出众的实验结果。这里是论文原文,作者来自马萨诸塞大学。咳咳,研究背景就不介绍了,我之前的博文中有讲~一、核心思想文章题目中的Dark指的就是,在预训练阶段不接触大量带标签的基类样本(base classes原创 2020-10-09 17:08:22 · 730 阅读 · 6 评论 -
【论文理解】A Self-supervised GAN for Unsupervised Few-shot Object Recognition
内容概览前言一、研究背景二、核心思想三、论文算法1. 网络结构2. 算法流程3. 实验结果思考前言这篇论文于2020.08挂在arxiv上 (点击阅读),作者来自俄勒冈州立大学。本文提出了一种新的自监督少样本学习算法,我认为对无监督少样本学习的研究具有借鉴意义。本文用于记录对论文算法及核心思想的展示和理解,出现的图片及公式均来自论文原文。本人也在研究自监督少样本方面,并将实验结果总结在论文Few-Shot Image Classification via Contrastive Self-Sup原创 2020-09-25 16:24:27 · 1530 阅读 · 2 评论