![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度主动学习
文章平均质量分 85
49号西瓜
计算机视觉研究僧
展开
-
【论文笔记】Unsupervised Selective Labeling for More Effective Semi-Supervised Learning (ECCV2022)
Unsupervised Selective Labeling for More Effective Semi-Supervised Learning原创 2022-12-27 18:13:46 · 388 阅读 · 2 评论 -
【论文笔记】Active Learning by Feature Mixing (CVPR2022)
论文:https://arxiv.org/abs/2203.07034代码:https://github.com/aminparvaneh/alpha_mix_active_learning1. 介绍本文针对图像分类任务提出了一种简洁有效的主动学习方法,主要通过将无标签数据和有标签数据在隐层空间的表征进行加权插值,为了找到使得扰动后的标注数据预测不一致性最大的插值系数,通过证明提出了插值权重系数的闭合式解。筛选出不一致性程度最大的无标签数据,并进行聚类得到多样性的采样结果,作为查询标注的样本。本文的实原创 2022-05-18 22:51:46 · 1353 阅读 · 1 评论 -
【论文笔记】Learning Distinctive Margin toward Active Domain Adaptation(CVPR 2022)
论文:https://arxiv.org/abs/2203.05738代码:https://github.com/TencentYoutuResearch/ActiveLearning-SDM摘要目前主动学习的方法不能处理域适应问题下存在域差异的情况,或者之前的域适应主动学习(active domain adaptation,以下简称ADA)的工作往往需要复杂的标注查询函数的设计。本文提出了基于可区分边界的选择方法SDM,主要为数据选择设计了最大边界损失和边界采样算法。本文提出的SDM可以被证明可以像原创 2022-05-18 20:15:12 · 1213 阅读 · 0 评论 -
【论文笔记】Active Universal Domain Adaptation(ICCV 2021)
论文:1. 介绍这篇文章主要提出了active universal domain adaptation(AUDA)问题,用主动学习在目标域上采样少部分的标注样本。本文认为AUDA的问题要同时优化实现好的泛化性能,同时在具有域偏移的情况下选择最有价值的一小批目标样本进行标注。主要的思路是设计了对抗式的多元化课程学习(ADCL),渐进式的对齐域特征并基于此区分哪些目标域样本属于源域类别。在识别了哪些是目标域私有类之后,用基于不可转移的梯度embedding聚类(CNTGE)对目标域数据进行聚类,利用可转移性原创 2022-04-02 12:09:48 · 2040 阅读 · 0 评论 -
【论文笔记】Contextual Diversity for Active Learning(ECCV2020)
论文:代码:摘要 1. 介绍2. 相关工作3. 方法3.14. 实验5.结论原创 2022-03-17 21:51:15 · 1234 阅读 · 1 评论 -
【论文笔记】Multiple Instance Active Learning for Object Detection(CVPR 2021)
一、介绍目前的主动目标检测主要通过简单地将示例或像素的不确定性综合或平均作为图像的不确定性,忽略了目标检测中负示例产生的不平衡,导致背景中存在大量噪声高的实例干扰了学习(如图1(a)所示)。本文针对以上问题,提出了一种准确评价图像和实例不确定性的方法(如图1(b)所示)。该方法用差异学习(Discrepancy Learning)和多示例学习(MIL)的方法学习和重加权示例的不确定性,来从未标注集中筛选出信息量大的图像。二、方法2.1 示例不确定性学习为了用在已标注集上训练的检测器来评估未标注示例原创 2022-03-17 15:00:35 · 4807 阅读 · 1 评论 -
【论文笔记】Semi-Supervised Active Learning with Temporal Output Discrepancy(ICCV 2021)
论文:Semi-Supervised Active Learning with Temporal Output Discrepancy代码:https://github.com/siyuhuang/TOD摘要 基于损失越大的样本通常对模型的信息量越大的思想,本文提出了一种新的深度主动学习方法,筛选出具有高损失值的样本。我们方法的核心是时序输出矛盾性(Temporal Output Discrepancy, TOD),即模型在不同iteration过程中给出的预测差异。我们的理论研究表明TOD为累积样原创 2022-03-14 20:12:02 · 1685 阅读 · 0 评论 -
【论文笔记】Transferable Query Selection for Active Domain Adaptation(CVPR 2021)
论文:Transferable Query Selection for Active Domain Adaptation代码:https://github.com/thuml/Transferable-Query-SelectionAbstract无监督域适配(Unsupervised domain adaptation, UDA)将知识从有完整标注的源域传递到一个未标记的目标域。尽管UDA取得了一系列进展,与使用有完整标记的目标数据比较性能差距仍然很大。主动域适配(Active domain ada原创 2022-03-12 17:25:56 · 1445 阅读 · 0 评论 -
【论文汇总】人工智能顶会深度主动学习(Deep Active Learning)相关论文
汇总自2017年至今,ICCV\CVPR\NIPS\ECCV会议上发表的深度主动学习(Deep Active Learning)相关文章,划分类别为图像分类、语义分割、目标检测及其它方向。图像分类ConferenceTtiteICCV 2017 Active Decision Boundary Annotation with Deep Generative ModelsICCV 2019Variational Adversarial Active LearningIC原创 2022-03-11 11:44:20 · 5785 阅读 · 0 评论 -
【论文笔记】Active Domain Adaptation via Clustering Uncertainty-weighted Embeddings(ICCV2021)
论文:Active Domain Adaptation via Clustering Uncertainty-Weighted Embeddings代码:https://github.com/virajprabhu/CLUE本人计算机视觉研究僧一枚,欢迎交流。Abstract本文通过主动学习方式,解决在域适应问题(Domain adaptation)中,让信息量最大的目标数据子集贴上标签,得到最大的性能效益,本文称此问题为主动域适配(Active DA),展示了提出的方法优于基于在模型上的不确定性或原创 2022-03-10 17:44:10 · 1627 阅读 · 0 评论 -
【论文笔记】Multi-Anchor Active Domain Adaptation for Semantic Segmentation(ICCV2021 Oral)
论文:https://arxiv.org/abs/2108.08012代码:https://github.com/munanning/MADA本人最近在调研深度主动学习,视觉方向,欢迎交流。Abstract无监督域自适应通过对齐源域数据和真实世界的目标域数据实现的一种减轻高成本标注的方法。本文的出发点立意就是,条件设定差的情况下将目标域分布映射到源域将损坏扭曲目标域数据的结构信息。本文提出了一种基于多锚点(mutil-anchor)的主动学习策略的领域适应性研究,处理语义分割任务。通过采用多个锚点而原创 2022-03-07 11:59:27 · 3693 阅读 · 0 评论 -
【论文笔记】Task-Aware Variational Adversarial Active Learning(CVPR2021)
[论文笔记] (CVPR21)Task-Aware Variational Adversarial Active Learning论文:https://arxiv.org/pdf/2002.04709.pdf代码:https://github.com/cubeyoung/TA-VAAL本人最近在调研深度主动学习,视觉方向,欢迎交流。初次写blog,轻喷。Abstract深度主动学习的最近探索的是任务不可知的方法选择远离当前已标注样本集的数据点以及基于任务模型。不幸的是,前者没有利用任务相关的知识,原创 2022-02-07 23:55:18 · 2444 阅读 · 5 评论