修正线性单元(Rectified linear unit,ReLU)

ReLU(修正线性单元)是神经网络中最常用的激活函数之一,以其生物合理性、稀疏激活和高效梯度传播等优势胜过sigmoid和tanh。其平滑形式为softplus函数。变体包括noisy ReLUs和leaky ReLUs。ReLU避免了梯度消失问题,简化了深度网络的训练,不需要预训练就能在大型复杂数据集上取得良好效果,逐渐成为主流选择。
摘要由CSDN通过智能技术生成

修正线性单元(Rectified linear unit,ReLU)


Rectified linear unit

在神经网络中,常用到的激活函数有sigmoid函数 f(x</

  • 17
    点赞
  • 38
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Zhang_P_Y

感谢支持

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值