https://blog.csdn.net/huwenxing0801/article/details/82791879
可以看见使用交叉熵作为损失函数后,反向传播的梯度不在于sigmoid函数的导数有关了。这就从一定程度上避免了梯度消失。
笔记随记---pytorch损失函数之nn.BCELoss()(为什么用交叉熵作为损失函数)
最新推荐文章于 2024-06-18 18:30:34 发布
https://blog.csdn.net/huwenxing0801/article/details/82791879
可以看见使用交叉熵作为损失函数后,反向传播的梯度不在于sigmoid函数的导数有关了。这就从一定程度上避免了梯度消失。