论文阅读
文章平均质量分 80
TEn%
因为自己淋过雨,所以想给别人撑把伞。
展开
-
Self-training with Noisy Student improves ImageNet classification (2020 CVPR)
1. 出处2020 CVPR2. 主要内容想要尽可能的利用上无标签的数据,来提高模型分类能力3. 整体结构输入数据:labeled images和unlabeled images![在这里插入图片描述](https://img-blog.csdnimg.cn/43f0fbb5964c4d83ad1624951dd3d520.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBAVEVuJQ==,原创 2022-04-08 17:45:55 · 3399 阅读 · 0 评论 -
zero-shot learning系列论文(1)A Generative Model For Zero Shot Learning Using Conditional Variational
1. 出处2018 CVPR workshop2. 问题已有的zero-shot learning方法尝试通过一些迁移函数建模类属性空间和图像空间之间的关系,以便将图像空间对应到unseen class3. 方法学习一个class embedding到image space的映射函数,但由于图像空间的不连续性,从seen class images上学到的映射无法捕获unseen classes的关系(domain shift问题)作者没有直接建模迁移函数,而是将问题视为“数据丢失”(相当于训练的原创 2022-02-23 21:28:21 · 751 阅读 · 0 评论 -
零样本分割系列论文(2)Open-Vocabulary Instance Segmentation via Robust Cross-Modal Pseudo-Labeling
zero-shot segmentation系列论文分享,本次分享的是Open-Vocabulary Instance Segmentation via Robust Cross-Modal Pseudo-Labeling,于2021.11.24挂在arXiv上,应该是投稿了CVPR 2022原创 2022-01-13 16:41:56 · 2911 阅读 · 0 评论 -
论文阅读Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector (2020 CVPR)
1. 出处2020 CVPR香港科技大学,腾讯2. 主要内容提出了自己的数据集提出了自己的小样本目标检测方法,不需要微调或者继续训练就能识别novel class3. 问题目标检测传统的方法需要大量的训练数据,准备大量高质量的训练数据需要耗费很多人力。给定少量样本的目标检测的关键就在于如何在复杂的背景中定位一个unseen目标。潜在的bbox很容易丢失unseen目标,或者对背景产生错误检测。这是因为RPN产生的bbox的低分,使得novel object难以被检测出来。而且已有的小样本目原创 2021-12-05 17:24:24 · 429 阅读 · 0 评论 -
零样本分割系列论文(1)Zero-Shot Instance Segmentation (2021 CVPR)
1. 出处2021 CVPR2. Motivation深度学习在有大量标注数据的实例分割任务中取得了很好的效果。但在医学领域,工业界很难获取到大量的数据,而且标注工作需要具备专业技能的人去做。这就导致这些任务中,未见过的类别,没有有标注的数据。另外,对于open-set实例分割任务,不可能标注所有类别,很多未标注的unseen classes也需要被分割出来。因此,缺乏有标注数据,深度学习方法无法完成这样的分割任务。Zero-shot segmentation面临2个主要挑战:如何对uns原创 2021-12-03 10:43:40 · 3700 阅读 · 0 评论 -
Masked Autoencoders Are Scalable Vision Learners (2021 何凯明老师组)
怎么说呢,何老师出品,必属精品!遵循的一个原则就是:非常好理解,容易阅读,可谓大道至简!就是对硬件设备的要求太高了,普通科研狗,想复现都难(crying.jpg)1. 出处2021 何凯明老师组(CVPR 2022 )2. 核心思想MAE mask输入图像的随机patches,重建缺失的pixels。两个主要设计:一个不对称的encoder-decoder架构encoder只对可见的patches子集(不包括mask tokens)进行操作轻量级的decoder在隐含表示和mask t原创 2021-11-17 16:24:57 · 1114 阅读 · 0 评论 -
Frustratingly Simple Few-Shot Object Detection (2020 ICML)
1. 出处2020 ICML2. 创新点采用的微调技术采用instance-level feature normalization (很多论文用过这个方法)改进了评估方法,不仅考虑novel class检测的准确率,而且考虑对于base class知识的保留3. Motivation已有的工作表明meta-learning是一种有效的方法,但fine-tuning技术不怎么被关注,而且大多数工作都专注于基础的图像分类任务,对目标检测关注较少。作者发现对于稀少的类别微调已有检测器的最后几层,原创 2021-10-30 20:06:12 · 583 阅读 · 0 评论 -
Dense Relation Distillation with Context-aware Aggregation for Few-Shot Object Detection (2021 CVPR)
1. 出处2021 CVPR北大2. 问题小样本目标检测在只有少量样本可用的情况下,很容易忽视新物体的细粒度的特征。已有的方法有几个缺陷:support特征和query特征之间的关系几乎没被探索过,在support特征上进行的全局池化操作用于调制query分支,这易于损失局部细节信息。support图像和query图像之间的外观变化差异很大或者有遮挡时,会对结果产生很大误导。没有足够的对比性信息的话,模型难以学到关键特征用于分类和定位。尺度变化问题仍然是小样本检测任务的阻碍3. 解决方案原创 2021-10-29 14:22:58 · 1520 阅读 · 1 评论 -
RefineNet: Multi-path Refinement Networks for High-Resolution Semantic Segmentation
1. 出处2017 CVPR2. 问题重复的二次采样操作如池化,卷积会导致图像分辨率快速下降。一种解决方案是使用反卷积作为上采样操作,来生成高分辨率的特征图。反卷积操作无法恢复低维特征,因为已经在前向传播阶段中的下采样操作中丢失了。低维信息对边界和细节的精确预测是至关重要的。DeepLab使用空洞卷积产生大的感受野,不需要下采样图片。这个方法有两个限制:需要对大量的细节(高分辨率)特征图做卷积,计算昂贵。空洞卷积是一种粗糙的sub-sample方式,会丢失重要细节另一种解决方案是利用来自中原创 2021-10-28 16:13:09 · 753 阅读 · 0 评论 -
PSPNet
1. 出处2017 CVPR2. 核心思想整体结构:通过金字塔池化模块将全局上下文信息和PSPNet结合在一起全局先验表示,对于场景解析任务是有效的PSPNet为像素级预测提供了更优秀的框架3. 问题已有的语义分割方法(按这篇文章来说的话,叫做场景解析,scene parsing),无法解决以下问题:FCN把船错分成了汽车,这是由于一些物体有相似的外观。但如果基于先验context来看这张图片的话,就能进行正确预测。当前基于FCN的模型最大的问题在于缺乏合适的策略来利用全局场景类别信息原创 2021-10-28 16:08:50 · 415 阅读 · 0 评论 -
DeepLab系列论文阅读
1. DeepLab v2DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs1.1 出处:2017 TPAMI1.2 问题:降低的特征分辨率多尺度物体的存在由于DCNN不变性,导致降低的定位准确率1.3 主要贡献(Solution):着重强调使用上采样conv或者空洞卷积,而不是使用反卷积deconvolution原创 2021-10-28 16:05:43 · 604 阅读 · 0 评论 -
SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation
1. 出处2015 TPAMI2. 核心思想核心可训练的分割模型包括:encoder, decoder,接着是pixel-wise的分类层decoder用来将低分辨率特征图映射成和输入图片分辨率相同的特征图3. 创新性SegNet的创新之处在于:decoder上采样低分辨率输入特征图的方式。4. 问题已有的方法直接将用于类别预测的深度学习框架用于pixel-wise的标注。尽管结果不错,但仍然很粗糙。主要是因为最大池化和sub-sampling降低了特征图的分辨率。5. 解决方案设计了S原创 2021-10-28 16:01:25 · 1297 阅读 · 0 评论 -
DETReg: Unsupervised Pretraining with Region Priors for Object Detection (2021)
1. 出处2021 CVPR 貌似没中,我在谷歌学术和微软学术上都没搜到2. 问题已有的自监督方法不是专门为了检测中的一个重要任务——定位物体而设计的。大多数已有的自监督方法只学习检测网络的部分结构,通常只是检测器的子网络,比如ResNet,只学习backbone对于检测模型是远远不够的。3. 解决方案提出了一个使用Region priors的Transformer进行目标检测的无监督预训练方法,叫作DETReg。作者受目标检测两个任务(分类和定位)的启发,合并自监督中两个互补的信号。对于目原创 2021-10-26 14:10:10 · 2923 阅读 · 0 评论 -
RepMet: Representative-based metric learning for classification and few-shot object detection (2019)
1. 出处2019 CVPRIBM研究团队2. 问题当前大多数小样本学习工作主要关注特定领域,比如人脸识别,一般的分类问题。很少有工作关注小样本目标检测问题,这类问题由于图像背景及需要精确定位物体位置变得复杂化。3. 主要内容提出了一种新的距离度量学习方法,能够同时学习backbone网络参数,embedding空间和每个训练类别的多模态分布。用一个有多个模式的混合模型表示每个类,将这些模式的中心作为该类别的表示向量。为了用少量的训练样本学习一个鲁棒的检测器,作者提出通过DML方法,用一个可原创 2021-10-24 16:55:05 · 306 阅读 · 0 评论 -
Meta-Learning to Detect Rare Objects (2019 ICCV)
1. 出处2021 ICCV卡耐基梅隆大学2. 问题当前对于小样本学习的研究主要关注小样本分类问题,小样本检测具有挑战而且尚未被探索。也有一些researcher将小样本分类方法用于小样本检测,但效果不够理想。3. 解决方案提出了一个基于元学习的框架,能够同时解决小样本分类和定位问题。该框架利用base classes的元知识来促进novel classes检测器的生成。作者的insight就是解决基于CNN的检测模型中类别不可知的和特定类别的组件,利用不同的元学习策略优化不同的组件。cate原创 2021-10-21 20:51:51 · 581 阅读 · 3 评论 -
Few-shot Object Detection via Feature Reweighting (2019 ICCV)
这篇论文算是小样本目标检测的开篇之作之一了,我在阅读最新论文的时候,发现他们也总会引用这篇文章,所以做小样本目标检测或者语义分割的同学,可以阅读一下这篇论文。1. 论文出处2019 ICCV2. 问题传统的基于CNN的目标检测方法需要大量的bbox标注,这些方法对于一些少的类别是不可用的。3. 解决方法设计了小样本目标检测器。能够从少量有标注的样本中检测出新类。模型通过元特征学习器和一个调整权重的模块,利用全部标注的基础类别,快速适应新类。使用有大量数据的base classes作为训练数据,原创 2021-10-17 15:51:07 · 701 阅读 · 0 评论 -
Beyond Max-Margin: Class Margin Equilibrium for Few-shot Object Detection (2021 CVPR)
1. 论文出处2021 CVPR厦门大学纪荣嵘老师团队,鹏城实验室2. 问题本文发现了一个问题,novel class分类和表示之间的隐含矛盾被忽视了。即:为了实现精确的novel class分类,两个base class分布需要互相远离(max-margin)。为了准确表示novel classes,base classes的分布需要彼此靠近,来减小novel classes类内距离(min-margin)。3. 解决方案提出了类间距均衡方法CME,来优化特征空间划分和novel c原创 2021-10-16 17:31:58 · 884 阅读 · 0 评论 -
学术论文写作常用词汇、句式表达
称为、叫作namedcalleddubbed模块化的modular本文会经常更新,作者会在读论文的过程中,不断归纳。未完,待续… …原创 2021-04-28 22:02:57 · 4950 阅读 · 0 评论