- sigmoid计算复杂,需要计算指数
- 梯度弥散:
对于每层只有一个神经元的网络,考虑每一层的偏导数,我们发现
∂C∂b1=σ′(
为什么使用ReLU而不是sigmoid
最新推荐文章于 2024-08-30 17:27:44 发布
ReLU因计算简单和缓解梯度消失问题而优于sigmoid。sigmoid的指数计算复杂且其导数最大值为1/4,导致在多层神经网络中易出现梯度弥散。ReLU在正区间的导数恒为1,减少了学习速率不一致的问题,提高了训练效率。
摘要由CSDN通过智能技术生成