本文主要介绍了当前机器学习模型中广泛应用的交叉熵损失函数与softmax激励函数。
这个损失函数主要应用于多分类问题,用于衡量预测值与实际值之间的相似程度。
交叉熵损失函数定义如下: L C E ( y ^ , y ∗ ) = − ∑ i = 1 N c l a s s e s y i ∗ l o g ( y i ^ ) L_{CE}(\hat{y}, y^*) = - \sum_{i=1}^{Nclasses} y_i^*log(\hat{y_i}) LCE(y^,y∗)=−i=1∑
本文主要介绍了当前机器学习模型中广泛应用的交叉熵损失函数与softmax激励函数。
这个损失函数主要应用于多分类问题,用于衡量预测值与实际值之间的相似程度。
交叉熵损失函数定义如下: L C E ( y ^ , y ∗ ) = − ∑ i = 1 N c l a s s e s y i ∗ l o g ( y i ^ ) L_{CE}(\hat{y}, y^*) = - \sum_{i=1}^{Nclasses} y_i^*log(\hat{y_i}) LCE(y^,y∗)=−i=1∑