激活函数总结(三十二):激活函数补充
1 引言
2 激活函数
2.1 Serf激活函数
2.2 FReLU激活函数
3. 总结
1 引言
在前面的文章中已经介绍了介绍了一系列激活函数 (Sigmoid、Tanh、ReLU、Leaky ReLU、PReLU、Swish、ELU、SELU、GELU、Softmax、Softplus、Mish、Maxout、HardSigmoid、HardTanh、Hardswish、HardShrink、SoftShrink、TanhShrink、RReLU、CELU、ReLU6、GLU、SwiGLU、GTU、Bilinear、ReGLU、GEGLU、Softmin、Softmax2d、Logsoftmax、Identity、LogSigmoid、Bent Identity、Absolute、Bipolar、Bipolar Sigmoid、Sinusoid、Cosine、Arcsinh、Arccosh、Arctanh、LeCun Tanh、TanhExp、Gaussian 、GCU、ASU、SQU、NCU、DSU、SSU、SReLU、BReLU、PELU、Phish、RBF、SQ-RBF、ISRU、ISRLU、SQNL、PLU、APL、Inverse Cubic、Soft Exponential、ParametricLinear、Piecewise Linear Unit、CLL、SquaredReLU、ModReLU、CosReLU、SinReLU、Probit、Smish、Multiquadratic、InvMultiquadratic、PSmish、ESwish、CoLU、ShiftedSoftPlus、Logit、Softsign、ELiSH、Hard ELiSH)。在这篇文章中,会接着上文提到的众多激活函数继续进行介绍,给大家带来更多不常见的激活函数的介绍。这里放一张激活函数的机理图:
2 激活函数
2.1 Serf激活函数
论文链接:Nag, Sayan, and Mayukh Bhattacharyya. “SERF: Towards better training of deep neural networks using log-Softplus ERror activation Function.” arXiv preprint arXiv:2108.09598 (2021).
Serf (或称 Log-Softplus ERror)激活函数是一种属于 Swish 家族的激活函数,具有自正则化和非单调性的特点。其数学表达式和数学图像分别如下所示:
f ( x ) = x e r f ( l n ( 1 + e x ) ) f(x)=x erf(ln(1+e^x))
f(x)=xerf(ln(1+e
x
))
其中,erf表示误差函数。
特点:
无上界:避免饱和问题
有下界:以便提供强的正则化效果
可微性:避免了基于梯度的优化过程中的奇点和任何伴随的不良影响
预调节器:使得梯度更平滑且优化更快,如下公式所示,我们可以将Serf的一阶导数表示为swish的函数,p(x)是一个预调节器,可以使得梯度更加平滑
f ′ ( x ) = 2 π e − l n ( ( 1 + e x ) ) 2 x σ ( x ) + f ( x ) x = p ( x ) s w i s h ( x ) + f ( x ) x f'(x)=\frac{2}{\sqrt{\pi}}e^{-ln((1+e^x))^2}x \sigma (x) + \frac{f(x)}{x} \\ =p(x)swish(x)+ \frac{f(x)}{x}
f
′
(x)=
π
2
e
−ln((1+e
x
))
2
xσ(x)+
x
f(x)
=p(x)swish(x)+
x
f(x)
平滑性:平滑的损失曲线表明更容易的优化并具有较少的局部最优。因此更好的泛化,最小化初始化和学习率的影响
作为Swish 家族的一员,Serf 具有极其优异的性质,在各个领域都有所应用,但是应用不多。有需要的人可以进行尝试。。。
2.2 FReLU激活函数
论文链接:Qiu, Suo, Xiangmin Xu, and Bolun Cai. “FReLU: flexible rectified linear units for improving convolutional neural networks.” In 2018 24th international conference on pattern recognition (icpr), pp. 1223-1228. IEEE, 2018.
FReLU (Flexible Rectified Linear Units,灵活的整流线性单元)是一种为了捕获负信息并提供 zero-like 属性的激活函数。其数学表达式和数学图像分别如下所示:
F R e L U ( x ) = { x + b , if x > 0 b , if x ≤ 0 FReLU(x) =
{x+b,b,if x>0if x≤0
{x+b,if x>0b,if x≤0
FReLU(x)={
x+b,
b,
if x>0
if x≤0
特点:
收敛速度快,性能更高;
计算成本低,无指数运算;
与批量归一化兼容;
弱假设和自适应
该激活函数较为简单,但是也因其简单的性质无法捕获复杂数据中的信息。现在很少使用。。。。
3. 总结
到此,使用 激活函数总结(三十二) 已经介绍完毕了!!! 如果有什么疑问欢迎在评论区提出,对于共性问题可能会后续添加到文章介绍中。如果存在没有提及的激活函数也可以在评论区提出,后续会对其进行添加!!!!
如果觉得这篇文章对你有用,记得点赞、收藏并分享给你的小伙伴们哦😄。
————————————————
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
原文链接:https://blog.csdn.net/qq_36758270/article/details/132708262