长尾学习
文章平均质量分 76
你好啊:)
这个作者很懒,什么都没留下…
展开
-
【看看这长尾学习】解耦训练 Balanced group Softmax
04 Overcoming classifier imbalance for long-tail object detection with balanced group softmax论文观点和表现:现有检测方法在数据集严重倾斜时不能对极少数类进行建模,这导致分类器在参数量级上不平衡。并且长尾分类模型并不能直接应用于检测框架。本文提出了一个新的平衡组(BAGS)模型来平衡检测框架内的分类器,能够隐式的调制尾部和头部类别的训练过程并且确保训练充分(没有对尾部实例进行额外的采样)...原创 2021-11-25 19:45:24 · 831 阅读 · 0 评论 -
【看看这长尾学习】Focal Loss其实也是长尾学习的思路
Focal Loss for Dense Object DetectionFocal loss 原文地址,推荐结合阅读!焦点损失(Focal loss)的提出的观点是:作者发现单阶段的检测方式(SSD or YOLO)相对于两阶段检测(Faster-RCNN)的检测速度是很快,但是准确率不足。为什么呢?作者认为是因为样本类别不均衡问题样本类别不均衡包含前后背景的样本不均衡(目标检测会生成很多的候选区域,但是实际包含目标的很少,所以前后背景的样本数目分布不均) 也包括其他类别的影响(这里借用原创 2021-11-24 09:58:18 · 842 阅读 · 0 评论 -
【看看这长尾效应】长尾效应综述
Deep Long-Tailed Learning: A Survey引言长尾学习介绍三级目录Deep Long-Tailed Learning: A Survey-论文地址引言长尾数据是指数据失衡,数据集中类别数量存在分布不均衡问题,典型的长尾数据集数据分布如下图所示:长尾学习在数据分布不平衡的情况下,能够训练良好的深度学习模型。在长尾数据集中,通用的视觉识别模型容易偏向Head部数据,而忽视tail数据。长尾数据的学习研究主要分为三大类:- 类重新平衡(class re-balanc原创 2021-11-16 08:52:26 · 2222 阅读 · 0 评论 -
【看看这长尾学习】Re-Weight方法 EQLloss
阅读论文:Equalization loss for long-tailed object recognition论文观点与表现:每一个类的正样本能够被视为其他类别的负样本, 这样会导致尾部数据类别非常不佳的梯度。通过忽视上述中的稀有类别的梯度,使得EQLoss在劣势中学习稀有类别信息。降低了负样本梯度的影响,对比正常情况负样本累计梯度下降明显:尾部类别的置信度分数相比原来也有不错的提升(头部类别相比变化不大,一小部分有所下降,但也有一小部分提升),说明网络能够有效的关注到尾部类别的分类:原创 2021-11-19 21:54:15 · 2568 阅读 · 0 评论 -
【看看这长尾学习】Re-Weight EQLv2
Equalization Loss v2: A New Gradient Balance Approach for Long-tailed Object Detection论文观点与表现:长尾学习的问题是正负样本梯度不平衡导致的EQLV2是一个梯度调整机制,能够独立和公平的重新平衡每个类别三个思考:梯度调整机制怎么调?独立平衡每个类别,是如何做到的?公平的平衡方法,怎么样实现并且对于头部数据影响如何?实现原理:EQLossv2的实例和任务:一个实例有1个正标签、有原创 2021-11-22 21:27:07 · 1009 阅读 · 0 评论