更新中
定义
相关概念
饱和
趋于极限时,激活函数的导数趋近于0
激活函数中的硬饱和,软饱和,左饱和和右饱和。_donkey_1993的博客-CSDN博客_激活函数的饱和区
神经元死亡
神经网络接受异于常值范围的输入时,在反向传播过程中会产生大的梯度。这种大的梯度,会因梯度消失而永久关闭
其中,Relu函数会导致这种现象:
对 Relu激活函数导致 [ 神经元死亡 ] 的理解 - 知乎 (zhihu.com)
解决方案:
- 把BN层放到Relu之前,可以使数据尽量不落入激活函数的饱和区域,一定程度环节梯度消失。(补充:BN层 协变量偏移 )面试准备 深度学习(graph nlp ts 知识交叉严重就放在一起写了) - 知乎 (zhihu.com)
- 减小学习率
- 使用ELU、PReLU、LeakyRelu等激活函数代替 Relu