![b5d17e08eb9171bed5aa874a9f1c3a2a.png](https://i-blog.csdnimg.cn/blog_migrate/e4ab3b41da4f212a0d1533c5614ae198.jpeg)
CCE 性能优于COT、Focal Loss和ERM等方法。
Imbalanced Image Classification with Complement Cross Entropy
![71988cb17c1c7c102fb47c2ca186877c.png](https://i-blog.csdnimg.cn/blog_migrate/5f0b3ce4d8738eb4fdca8c3cb97839ef.jpeg)
论文: https:// arxiv.org/abs/2009.0218 9
作者单位:光州科学技术院, 韩国科学技术院
最近,深度学习模型依靠大规模的类平衡数据集在计算机视觉应用中取得了巨大成功。但是,由于性能下降,类分布不平衡仍然限制了这些模型的广泛应用。为了解决这个问题,我们专注于交叉熵的研究:它通常忽略错误类的输出分数。
在这项工作中,我们发现抵消不正确类别的预测概率有助于提高不平衡图像分类的预测准确性。基于这一发现,本文提出了一种简单而有效的损失,称为互补交叉熵(complement cross entropy,CCE)。我们的损失通过消除不正确的类的概率,而无需额外的训练程序,使ground truth类在softma