SignReLU激活函数

SignReLU 激活函数

文章链接:[Research on convolutional neural network based on improved ReLU piecewise activatio function ]

年份:2018

介绍

饱和激活函数中存在一种激活函数称为Softsign激活函数,与双曲正切Tanh的曲线类似,具体的函数公式为:
S o f t s i g n ( x ) = x 1 + ∣ x ∣ Softsign(x ) = \frac{x}{1+|x|} Softsign(x)=1+xx
Softsign的曲线如下图所示,Softsign由于其平滑的渐近线,饱和较为缓慢,因此训练时更为稳健,并且获得的激活值均匀分布在大量非线性但梯度流较好的区域,具有较好的容错能力。
在这里插入图片描述
由于ReLU激活函数能有效缓解梯度消失和较好的稀疏性,结合Softsign非线性程度高、容错能力强的特点,提出了一种改进的ReLu分割修正激活函数,称为SoftReLU激活函数,公式为:
f ( x ) = { x , x ≥ 0 α x 1 + ∣ x ∣ , x < 0 f(x) = \begin{cases} x, &x\ge0\\ \alpha \frac{x}{1+|x|}, & x<0 \end{cases} f(x)={x,α1+xx,x0x<0
α = 0 \alpha=0 α=0时,SoftReLU为ReLU。

SoftReLU的导数为:
f ( x ) = { 1 , x ≥ 0 α 1 ( 1 + ∣ x ∣ ) 2 , x < 0 f(x) = \begin{cases} 1, &x\ge0\\ \alpha \frac{1}{(1+|x|)^2}, & x<0 \end{cases} f(x)={1,α(1+x)21,x0x<0
SoftReLU的函数曲线如下图:
在这里插入图片描述
SoftReLU的导数曲线如下图:
在这里插入图片描述

分析

  • 超参数 α \alpha α决定了负区域函数曲线的饱和点,负区域的饱和值为 − α -\alpha α
  • 通常情况下 1 > α > 0 1>\alpha>0 1>α>0,是超参数,需要人工选择。
  • Softsign虽然是连续函数,但在 x = 0 x=0 x=0处(除 α = 0 \alpha=0 α=0)是不可微,也就是说Softsign是非光滑函数。
  • 导数的计算存在幂函数,计算量大。
  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值