激活函数LeakyReLU

26 篇文章 0 订阅

(leaky_0): LeakyReLU(negative_slope=0.1)

LeakyReLU是一种用于深度学习的激活函数,它解决了传统ReLU(修正线性单元)在输入小于0时输出为0的问题。ReLU函数,在x < 0 的范围内梯度恒为0,无法更新参数,这导致神经元“死亡”,不再对任何输入产生响应。

LeakyReLU通过在输入小于0时引入一个小的负斜率\alpha来解决这个问题,从而允许一些负的梯度流过神经元,有助于缓解梯度消失问题。

数学表达式

f(x)=max\left \{0,x \right \}+\alpha \times min\left \{0, x \right \}

f(x)=max\left \{ \alpha x,x \right \}

f(x)=\begin{cases}\quad x,\quad&if\quad x\geq0\\\alpha\times x,\quad&\text{otherwise}\end{cases}

其中,x是输入,α是负斜率,值在0到1之间。当x大于0时,LeakyReLU的输出与ReLU相同;当x小于0时,输出为α*x。

优缺点

优点:避免神经元死亡,一定程度缓解梯度消失问题,提高神经网络的训练效果。

缺点:可能导致梯度爆炸,同时负斜率参数α缺少可解释性。

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

F_D_Z

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值