关于PRelu:Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification

前言

内容是经典激活函数PRelu的提出

内容

在这里插入图片描述
上图左为Relu,右图为PRelu,P相比传统Relu,在坐标系左边有数值。用公式解释:
在这里插入图片描述
当ai=0时,成为Relu;当ai是一个小且固定的数值,则变成Leaky Relu(ai=0.01),LRelu的motivation是为了防止零梯度,即坐标轴左侧有数值。但是在一些研究上,显示LRelu对于精度的影响微乎其微。

Prelu相比Relu只增加了一丁点参数,模型大小上几乎没有任何影响。

实验

这里是几个模型:
在这里插入图片描述

在这里插入图片描述
在相同的结构A下Prelu比Relu效果好(数值越低错误率越低),同时,在深度更深/维度更多的网络结构使用Prelu能够达到更好的效果

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值