激活函数
Sigmoid:
范围:输出范围在0到1之间。
特点:平滑的S形曲线,将输入值映射到0到1之间,适合用于二分类问题的输出层,但容易出现梯度饱和问题。
tanh:
范围:输出范围在-1到1之间。
特点:S形曲线,将输入值映射到-1到1之间,优点是输出均值为0,相比于Sigmoid函数,tanh函数的输出范围更广,但同样存在梯度饱和问题。
ReLU (Rectified Linear Unit):
范围:输出范围在0到正无穷之间。
特点:在输入大于0时,输出等于输入;在输入小于等于0时,输出为0。ReLU函数计算简单,能够加速收敛,但存在神经元死亡问题(输入为负时梯度为0)。
PReLU (Parametric Rectified Linear Unit):
范围:输出范围在0到正无穷之间。
特点:与ReLU类似,但引入了参数,允许激活函数学习一个小的负值斜率,减轻了ReLU的神经元死亡问题。
ELU (Exponential Linear Unit):
范围:输出范围在负无穷到正无穷之间。
特点:在输入大于0时,输出等于输入;在输入小于0时,输出的是指数增长的负值,有助于减少ReLU的神经元死亡问题,但计算复杂度较高。
Maxout:
范围&