1、log loss
2、WBE loss
带权重的交叉熵
3、Focal loss
容易过拟合?我在VGG16上做过实验(没有BN层),发现网络在训练集上的性能直线上升,但是验证集却下降,不知是不是BN层缺失的原因
4、DIce loss
对于肿块太小的梯度容易变化剧烈
带权重的交叉熵
容易过拟合?我在VGG16上做过实验(没有BN层),发现网络在训练集上的性能直线上升,但是验证集却下降,不知是不是BN层缺失的原因
对于肿块太小的梯度容易变化剧烈
转载于:https://www.cnblogs.com/double-t/p/10907756.html