如何在模型中选择正确的loss对于结果而言至关重要,下面介绍一下torch不同loss的数学意义:
1.BCEloss()二分类
取出属于正确label的那一类的置信度,取log,去掉负号就是loss
多分类的意义与此相同,-log函数图如下图所示:
可以看出,在0~1之间,预测该正确分类的置信度越高,loss就越小,为什么要采用这种非线性的损失函数呢?
log loss包含了模型对于对应标签的不确定性
如何在模型中选择正确的loss对于结果而言至关重要,下面介绍一下torch不同loss的数学意义:
1.BCEloss()二分类
取出属于正确label的那一类的置信度,取log,去掉负号就是loss
多分类的意义与此相同,-log函数图如下图所示:
可以看出,在0~1之间,预测该正确分类的置信度越高,loss就越小,为什么要采用这种非线性的损失函数呢?
log loss包含了模型对于对应标签的不确定性