激活函数


“激活函数”,又称“非线性映射函数”,是深度卷积神经网络中不可或缺的关键模块。可以说,深度网络模型其强大的表示能力便是由激活函数的非线性带来的。本文将介绍七种当下深度卷积神经网络中常用的激活函数:Sigmoid型函数、tanh型函数、ReLU、LeakyReLU、参数化ReLU、随机化ReLU和指数化线性单元ElU。
直观上,激活函数模拟了生物神经元特性,接受一组输入信号并产生输出,并通过一个阈值模拟神经元的激活和兴奋状态。

在这里插入图片描述

由于本文涉及到较多的公式,为了方便,我将截图展示。

Sigmoid型函数

在这里插入图片描述
在这里插入图片描述

tanh(x)型函数

在这里插入图片描述

修正线性单元(ReLU)

在这里插入图片描述
在这里插入图片描述

Leaky ReLU

在这里插入图片描述

参数化ReLU

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

随机化ReLU

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

指数化线性单元

在这里插入图片描述

小结

1.激活函数(非线性映射函数)为深度网络模型引入非线性而产生强大表示能力功不可没;
2.Sigmoid型函数是历史上最早的激活函数之一,但是它与tanh(x)型函数一样会产生梯度饱和效应,因此在实践中不建议使用;
3.建议首先使用的目前最常用的ReLU激活函数,但需注意模型参数初始化和学习率的设置;
4.为进一步提高模型精度,可尝试使用LeakyReLU、参数化ReLU、随机化ReLU和ELU。但是在这之间实际性能优劣并无一致性结论,需具体问题具体讨论。
:文章选自《解析深度学习—卷积神经网络原理与视觉实践》魏秀参著

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

毛毛真nice

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值