一.sigmoid
函数公式:
压缩函数
sigmoid将数值压缩到(0,1)
激活函数
sigmoid是一个非线性函数,输出将是一个非线性的加权和(下一个神经元)输入,
二.ReLU
替换了sigmoid,由于sigmoid的计算量大,反向传播计算量大。
并且sigmoid容易出现梯度消失的情况
ReLU可以时部分输出为0,可以使得网络变得稀疏,减少参数的依存性,缓解过拟合
公式:
三.Tanh(双曲正切函数)
公式如下:
图像
四.Leaky ReLU
公式:
特点
1)Leaky ReLU函数通过把x xx的非常小的线性分量给予负输入0.01 x 0.01x0.01x来调整负值的零梯度问题。
2)Leaky有助于扩大ReLU函数的范围,通常α \alphaα的值为0.01左右。
3)Leaky ReLU的函数范围是负无穷到正无穷。
五.Swish函数
六.mish函数
mish激活函数_帮我用matlab语言绘制mish激活函数-CSDN博客
公式:
y = x*tanh(ln(1+exp(x)))