0 基础
0.1 what激活?
在NN的神经元上运行的函数,负责将神经元的输入映射到输出
0.2 why激活?
没有激活,每层的输出都是上层的线性组合,整个NN的输出就是输入的线性组合,无法逼近任意函数
0.3 激活的特性?
(1)非线性
(2)可微性:GD的要求
(3)单调性:保证单层NN是凸函数
(4)输出范围:
有限时,基于梯度的优化,更稳定
无限时,训练高效,用小的lr
1 sigmoid
1.1 概念
定义域:(-∞,+∞)
值域:(0,1)
在定义域内,是连续、光滑的函数
处处可导,导数为 f’(x) = f(x)*(1-f(x))
1.2 优点
(1)实现非线性变换
(2)梯度容易计算
(3)可以进行数据压缩
1.3 缺点
双边饱和,易出现梯度消失
1.4 sigmoid变体
1.4.1 Swish
无上界、平滑、单调
下图中,β=1
1.4.2 logSigmoid
2 tanh(双曲正切)
2.1 概念
TanHyperbolic
定义域:(-∞,+∞)
值域:(-1,1)
在定义域内,是连续、光滑的函数
处处可导,导数为 f’(x) =1-f2(x)
tf.nn.tanh
2.2 优点
(1)实现非线性变换
(2)梯度容易计算
(3)可以进行数据压缩
(4)近0处,梯度比sigmoid大,收敛快
&#x