Difference between ReLU、LReLU、PReLU、CReLU、ELU、SELU

Difference between ReLU、LReLU、PReLU、CReLU、ELU、SELU

激活函数 ReLU、LReLU、PReLU、CReLU、ELU、SELU  的定义和区别

ReLU

tensorflow中:tf.nn.relu(features, name=None)

RELU的优点即计算特别简单,高度非线性,但是RELU的缺点也很明显:

  • 因为其将所有的输入负数变为0,在训练中可能很脆弱,很容易导致神经元失活,使其不会在任何数据点上再次激活。简单地说,ReLu可能导致神经元死亡。
  • 对于ReLu中(x<0)的激活,此时梯度为0,因此在下降过程中权重不会被调整。这意味着进入这种状态的神经元将停止对错误/输入的变化做出反应(仅仅因为梯度为0,没有任何变化)。这就是所谓的dying ReLu problem.

LReLU

(Leaky-ReLU) 

 

其中ai是固定的。i表示不同的通道对应不同的ai. 

tensorflow中:tf.nn.leaky_relu(features, alpha=0.2, name=None)

而LeakyRelu是RELU的变体,对输入小于0部分的反应有所变化,减轻了RELU的稀疏性,因为我们可以设置negative_slop这个系数保证在输入小于0的时候有微弱的输出。

LeakyReLU的优点是什么,就是缓解一些RELU导致神经元死亡的问题,但是缺点也很明显,因为有了负数的输出,导致其非线性程度没有RELU强大。

自己在尝试生成类的时候,使用自编码器生成图像,上述这两个激活函数的时候并没有发现明显的差别。可能LRELU稍好一些,总结一下就是RELU适合分类,LRELU适合生成类的任务。

 

PReLU

 

其中ai是可以学习的的。如果ai=0,那么 PReLU 退化为ReLU;如果 aiai是一个很小的固定值(如ai=0.01),则 PReLU 退化为 Leaky ReLU(LReLU)。 
PReLU 只增加了极少量的参数,也就意味着网络的计算量以及过拟合的危险性都只增加了一点点。特别的,当不同 channels 使用相同的ai时,参数就更少了。BP 更新ai时,采用的是带动量的更新方式(momentum)。 
tensorflow中:没找到啊!

CReLU

(Concatenated Rectified Linear Units) 

 


tensorflow中:tf.nn.crelu(features, name=None)

 

ELU

 

 


其中α是一个可调整的参数,它控制着ELU负值部分在何时饱和。 
右侧线性部分使得ELU能够缓解梯度消失,而左侧软饱能够让ELU对输入变化或噪声更鲁棒。ELU的输出均值接近于零,所以收敛速度更快 
tensorflow中:tf.nn.elu(features, name=None)

SELU

 

经过该激活函数后使得样本分布自动归一化到0均值和单位方差(自归一化,保证训练过程中梯度不会爆炸或消失,效果比Batch Normalization 要好) 

其实就是ELU乘了个lambda,关键在于这个lambda是大于1的。以前relu,prelu,elu这些激活函数,都是在负半轴坡度平缓,这样在activation的方差过大的时候可以让它减小,防止了梯度爆炸,但是正半轴坡度简单的设成了1。而selu的正半轴大于1,在方差过小的的时候可以让它增大,同时防止了梯度消失。这样激活函数就有一个不动点,网络深了以后每一层的输出都是均值为0方差为1。

tensorflow中:tf.nn.selu(features, name=None)

 

 PS:

Activation Function Cheetsheet

 

 

【转载】:https://www.cnblogs.com/jins-note/p/9646602.html

参考:

 https://blog.csdn.net/qq_20909377/article/details/79133981

https://towardsdatascience.com/activation-functions-neural-networks-1cbd9f8d91d6

http://www.elecfans.com/d/678118.html

https://zhuanlan.zhihu.com/p/22142013

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值