- 博客(2)
- 收藏
- 关注
原创 【机器学习】分类时,为什么不使用均方误差而是使用交叉熵作为损失函数
MSE对于每一个输出的结果都非常看重,而交叉熵只对正确分类的结果看重当MSE和交叉熵同时应用到多分类场景下时,(标签的值为1时表示属于此分类,标签值为0时表示不属于此分类),**MSE对于每一个输出的结果都非常看重**,**而交叉熵只对正确分类的结果看重**。例如:在一个三分类模型中,模型的输出结果为(a,b,c),而真实的输出结果为(1,0,0),那么MSE与cross-entropy相对应的...
2019-05-23 11:23:35 3714
原创 【机器学习】分类时,使用平方损失搭配sigmoid激活函数出梯度消失现象
当sigmoid函数和MSE一起使用时会出现梯度消失。原因如下:(1)MSE对参数的偏导(2)corss-entropy对参数的偏导由上述公式可以看出,在使用MSE时,w、b的梯度均与sigmoid函数对z的偏导有关系,而sigmoid函数的偏导在自变量非常大或者非常小时,偏导数的值接近于零,这将导致w、b的梯度将不会变化,也就是出现所谓的梯度消失现象。而使用cross-entrop...
2019-05-23 11:10:09 1596
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人