论文地址:https://papers.nips.cc/paper/8094-generalized-cross-entropy-loss-for-training-deep-neural-networks-with-noisy-labels.pdf
针对带噪数据的训练学习,直接选取CCE(Categorical Cross Entropy)作为loss function会导致模型在噪声数据上overfitting,AAAI2017 Robust Loss Functions under Label Noise for Deep Neural Networks已经证明选取mean absolute error (MAE)
可以有效抑制噪声数据,但MAE存在收敛速度慢、训练困难的问题,本文提出一种综合CCE/MAE优势、避免其劣势的loss function,在带噪数据学习上取得更好效果;
CCE和MAE的梯度计算如上图,从CCE的梯度中可看出,每个样本有一个权重
样本越难学习,f值(模型输出)越小,权重更高,因此CCE偏向困难样本
【论文阅读】NIPS2018 Generalized Cross Entropy Loss for Training Deep Neural Networks with Noisy Labels
最新推荐文章于 2023-12-28 21:58:13 发布