- 博客(3)
- 收藏
- 关注
原创 论文阅读:Seesaw Loss for Long-Tailed Instance Segmentation
一般分类训练的过程大概是这样:进行训练时,给定一个iii类样本,将其送入模型会得到该样本对所有类的一个得分Zz1zizjzcZz1...zi...zj...zc。这个得分输入损失函数能够计算损失,损失函数对各个zzz求偏导,然后反向传播更新与各个类相关的参数。更新的趋势是,新得到的参数会使得ziz_izi更大,其他类的zzz更小,如zjz_jzj。所以,对于iii类训练样本送入模型训练时,损失函数对zi。
2023-07-03 09:09:08 467 1
原创 论文阅读:BBN: Bilateral-Branch Network with Cumulative Learning for Long-Tailed Visual Recognition
作者探求了类重平衡方法的机制,说明了这样的方法在促进分类器学习的同时也会影响到特征学习。下图中可以看出特征学习使用CE分类器学习使用RS时Error rate最低,如果在特征学习阶段使用类重平衡效果很差。提出了BBN(Bilateral-Branch Network)进一步提高长尾识别的性能,提出一个新的cumulative learning策略来调整两条分支的学习,与BBN模型的训练结合。Conventional Learning Branch用Uniform Sampler,Re-Balancing
2023-06-27 09:48:18 702 2
原创 论文阅读:Long-Tail Learning via Logit Adjustment
post-hoc normalisation,调整学习完的logit,但这样容易受到优化器选择的影响。loss modification,通过调整损失函数来调整logit,以适应不同类的惩罚,但这样牺牲了连续性,这样优化结果不一定是最优。提出了两个logit adjustment的两个post-hoc normalization和loss modification的实现,克服了两种问题的局限。证实了所提出的技术在真实世界数据集上的效用。
2023-06-07 12:14:26 704 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人