Cross Entropy Loss交叉熵损失
1. softmax输出,所有输出概率和为1
2.sigmod输出,每个输出节点之间互不相干
(其中Oi*为真实标签值,Oi为预测值,默认log以e为底等于ln)
对于二分类问题,理论上使用sigmoid和softmax没有区别,因为数学表达式的形式是一样的。
对于多分类非互斥问题,使用sigmoid更合适。
对于多分类互斥问题,使用softmax更合适。补充:
多分类非互斥问题:多标签分类
多分类互斥问题:单标签分类
1. softmax输出,所有输出概率和为1
2.sigmod输出,每个输出节点之间互不相干
(其中Oi*为真实标签值,Oi为预测值,默认log以e为底等于ln)
对于二分类问题,理论上使用sigmoid和softmax没有区别,因为数学表达式的形式是一样的。
对于多分类非互斥问题,使用sigmoid更合适。
对于多分类互斥问题,使用softmax更合适。补充:
多分类非互斥问题:多标签分类
多分类互斥问题:单标签分类