激活函数总结(二十一):激活函数补充(APL、Inverse Cubic)

激活函数总结(二十一):激活函数补充
1 引言
2 激活函数
2.1 Adaptive piecewise linear(APL)激活函数
2.2 Inverse Cubic激活函数
3. 总结
1 引言
在前面的文章中已经介绍了介绍了一系列激活函数 (Sigmoid、Tanh、ReLU、Leaky ReLU、PReLU、Swish、ELU、SELU、GELU、Softmax、Softplus、Mish、Maxout、HardSigmoid、HardTanh、Hardswish、HardShrink、SoftShrink、TanhShrink、RReLU、CELU、ReLU6、GLU、SwiGLU、GTU、Bilinear、ReGLU、GEGLU、Softmin、Softmax2d、Logsoftmax、Identity、LogSigmoid、Bent Identity、Absolute、Bipolar、Bipolar Sigmoid、Sinusoid、Cosine、Arcsinh、Arccosh、Arctanh、LeCun Tanh、TanhExp、Gaussian 、GCU、ASU、SQU、NCU、DSU、SSU、SReLU、BReLU、PELU、Phish、RBF、SQ-RBF、ISRU、ISRLU、SQNL、PLU)。在这篇文章中,会接着上文提到的众多激活函数继续进行介绍,给大家带来更多不常见的激活函数的介绍。这里放一张激活函数的机理图:


2 激活函数
2.1 Adaptive piecewise linear(APL)激活函数
论文链接:https://arxiv.org/pdf/1512.07030.pdf
APL 激活函数是一种非线性激活函数,全称为 “Asymmetrical Piecewise Linear Unit”(不对称分段线性单元)。它与一些常见的激活函数(如 ReLU、Leaky ReLU 等)不同,具有不对称的线性变换,可以引入更多的非线性性质。其数学表达式和数学图像分别如下所示:
A P L ( x ) = m a x ( 0 , x ) + ∑ s = 1 S a i s m a x ( 0 , − x + b i s ) APL(x)=max(0,x)+\sum_{s=1}^{S}a_i^smax(0,-x+b_i^s)
APL(x)=max(0,x)+ 
s=1

S

 a 
i
s

 max(0,−x+b 
i
s

 )


优点:

非线性性质: APL 激活函数引入了非线性性质,使得神经网络可以更好地捕捉输入数据中的非线性模式。

分段线性特性: APL 激活函数通过分段线性变换,允许在不同的输入范围内引入不同的线性特性,增加了网络的灵活性。

参数控制: 通过调整参数 a i s a_i^sa 
i
s

  和 b i s b_i^sb 
i
s

 ,可以精细调节 APL 激活函数的斜率和分段位置,以适应不同的任务需求。

可解释性: APL 激活函数的表达式具有明确的形式,参数 a i s a_i^sa 
i
s

  和 b i s b_i^sb 
i
s

 可以对激活函数的形状进行解释。

缺点:

复杂性: APL 激活函数的数学表达式较为复杂,包含了多个参数和分段线性操作,可能增加了计算的复杂性。

参数设置: 需要仔细调整参数 a i s a_i^sa 
i
s

  和 b i s b_i^sb 
i
s

 才能获得最佳性能,这可能需要一些实验和调试。

计算开销: 由于包含了多个分段线性操作,可能在计算上相对于一些简单的激活函数而言具有一定的计算开销。

可解释性挑战: 尽管有明确的形式,但对于一些非专业人士来说,理解参数 a i s a_i^sa 
i
s

  和 b i s b_i^sb 
i
s

  如何影响激活函数的行为可能具有一定挑战。

总体而言,APL 激活函数通过引入分段线性特性和参数控制,可以在特定问题和网络结构中发挥作用。 很少使用。。。。。。

2.2 Inverse Cubic激活函数
函数链接:https://en.wikipedia.org/w/index.php?title=Activation_function&oldid=760259047#Comparison_of_activation_functions

Inverse Cubic激活函数是维基百科中的一个函数,其数学表达式如下所示:
f ( x ) = ( 9 x 2 + 4 + 3 x 2 ) 1 3 − ( 9 x 2 + 4 + 3 x 2 ) − 1 3 f(x)=(\frac{\sqrt{9x^2+4}+3x}{2})^{\frac13}-(\frac{\sqrt{9x^2+4}+3x}{2})^{\frac{-1}{3}}
f(x)=( 
2
9x 
2
 +4

 +3x

 ) 
3
1

 
 −( 
2
9x 
2
 +4

 +3x

 ) 
3
−1

 

优点:

引入非线性性质: 这个激活函数引入了非线性特性,有助于神经网络捕捉数据中的非线性模式。
对称性: 激活函数的形式表现出一定的对称性,这可能在某些情况下对于数据建模具有一定的好处。
连续性: 尽管形式复杂,但是这个激活函数是连续的,在计算梯度和进行优化时可能更容易处理。
缺点:

复杂性: 这个激活函数的表达式非常复杂,包含多个数学运算,可能增加了计算的复杂性,尤其是在大规模的神经网络中。
数值稳定性: 由于激活函数中包含根号运算,可能在输入值较小时导致数值不稳定性,影响计算和优化过程。
梯度计算: 由于激活函数的复杂性,计算其导数可能相对困难,尤其是在自动微分框架中。
解释性: 由于其数学形式的复杂性,这个激活函数可能在解释性方面存在挑战,对于非专业人士来说可能不容易理解。
总之,虽然这个激活函数具有一些独特的特点,但是其复杂性和数值稳定性问题可能限制了其在实际应用中的使用。

3. 总结
到此,使用 激活函数总结(二十一) 已经介绍完毕了!!! 如果有什么疑问欢迎在评论区提出,对于共性问题可能会后续添加到文章介绍中。如果存在没有提及的激活函数也可以在评论区提出,后续会对其进行添加!!!!

如果觉得这篇文章对你有用,记得点赞、收藏并分享给你的小伙伴们哦😄。
————————————————

                            版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
                        
原文链接:https://blog.csdn.net/qq_36758270/article/details/132461495

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值