深度学习之激活函数——ReLU

ReLU

整流线性单元(ReLU),全称Rectified linear unit,是现代神经网络中最常用的激活函数,大多数前馈神经网络都默认使用该激活函数。

函数表达式

f ( x ) = m a x { 0 , x } f(x)=max\{0,x\} f(x)=max{0,x}

x < 0 x<0 x<0时,函数值为0;当 x > 0 x>0 x>0时,函数值为 f ( x ) = x f(x)=x f(x)=x

函数图像

请添加图片描述

函数特性

在现阶段的使用过程中,依然是ReLU激活函数效果最好。我们可以这样去理解ReLU的作用:当 x > 0 x>0 x>0时,这时候函数值是与 x x x正相关的,我们希望当检测特征信号越强时,得到的结果越强;而当 x x x为负值时,说明该特征对结果有负面影响,我们不需要负面信号,那么所有信号结果都转化为0。

优点:
  • ReLU收敛速度相较于logistic和Tanh要快很多
  • ReLU运算速度较快,因为其是线性函数,计算复杂度低,不需要进行指数、对数等运算
  • ReLU不容易过拟合,因为其 x < 0 x<0 x<0的部分函数值为0,可以使参数更加稀疏(因为部分参数直接转化为0),从而减小参数之间的依存关系
  • ReLU不会出现梯度消失的问题,因为其在 x > 0 x>0 x>0时梯度恒为1
缺点:
  • ReLU在 x < 0 x<0 x<0部分直接为0,可能导致屏蔽特征过多而导致无法学习到有效特征。这一现象也被称为dead relu,即神经元坏死。只要神经元梯度为0,其之后梯度将一直为0,导致参数不会再被更新。
  • 29
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
leakyrelu激活函数是一种常用的激活函数之一,它是ReLU函数的一种变体。它的图像可以描述如下:在输入小于0的区间,leakyrelu函数的输出是一个小的线性系数乘以输入值;而在输入大于等于0的区间,leakyrelu函数的输出与输入值相等。这个小的线性系数通常取一个较小的正数,比如0.01。这样设计的目的是为了在输入小于0的情况下,避免ReLU函数的神经元“死亡”,使得梯度能够在这个区间内有一个非零的值,从而提高模型的收敛速度和性能。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [深度学习激活函数总结(sigmoid,tanh,ReLU,Leaky ReLU,EReLU,PReLU,Softmax,Swish,Maxout,...](https://blog.csdn.net/winter2121/article/details/122326697)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [机器学习中的数学——激活函数(四):Leaky ReLU函数](https://blog.csdn.net/hy592070616/article/details/120617996)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值