Relu 与 leakyRelu

转自:激活函数Relu 及 leakyRelu_有丝吼的博客-CSDN博客_leaky relu

Relu 及 leakyRelu是深度学习中常用的激活函数,看了几篇博客后,做一个小的总结。
     1. Relu:
              数学表达式:a = max(0, z)
            函数图像为:
                  
           优点:由上图可以看出,Relu得到的SGD的收敛速度较快
           缺点:训练的时候很容易‘die'了,对于小于0的值,这个神经元的梯度永远都会是0,在实际操错中,如果learning rate很大,很可能网络中较多的神经元都'dead'了,即使是较小的learning rate,这种情况也很有可能发生。
        为了解决以上的问题,提出了leakyRelu激活函数:
    2. leakyRelu:
            数学表达式:y = max(0, x) + leak*min(0,x)  (leak是一个很小的常数,这样保留了一些负轴的值,使得负轴的信息不会全部丢失)
            leakyRelu的图像:
                        
 3. 在tf中的实现:
         Relu在tf中有官方的实现,可以直接调用函数 tf.nn.relu( features, name= None )
         leakyRelu的简单实现可以这么写: tf.maximum(leak * x, x),
          比较高效的写法为:
               

 

 

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值