深度学习-激活函数

主要作用: 加入非线性因素,弥补线性模型表达不足的缺陷

Sigmoid函数
σ ( x ) = 1 1 + e − x \sigma(x) = \frac{1}{1 + e^{-x}} σ(x)=1+ex1


在这里插入图片描述

随着 x x x 的趋近正/负无穷, y y y 对应的值越来越接近 +1/-1,趋近饱和
因此当 x x x = 100 和 x x x = 1000 的差别不大,这个特性丢掉了 x x x = 1000 的信息

Tanh函数
t a n h ( x ) = 2 σ ( 2 x ) − 1 tanh(x) = 2 \sigma(2x) - 1 tanh(x)=2σ(2x)1


在这里插入图片描述

对Sigmoid函数的值域升级版,值域为(-1, 1)

ReLU函数
R e L U ( x ) = m a x ( 0 , x ) ReLU(x) = max(0, x) ReLU(x)=max(0,x)


在这里插入图片描述

大于 0 的一律留下,否则一律为 0,这种对正向信号的重视,忽略负向信号的特性,与人类神经元细胞信号的反应机制非常相似

变式
1.Softplus: 对负信号不是全部拒绝,函数更为平滑,但计算量巨大
2.Noisy relus: 其中x加入了一个高斯分布噪声
3.Leaky relus: 在ReLU的基础上,保留一部分负值,让x为负时乘以0.01,对负信号不是一味拒绝,而是缩小
4.Elus: 对x为负时,做了更加复杂的变化

总结:

Tanh函数:特征相差明显

Sigmoid函数:特征相差复杂,但是没有明显区别

ReLU函数:处理后的数据具有很好的稀疏疏性(大多数元素值为0),近似程度地最大保留数据特征

实际上,神经网络训练过程中,就是不断尝试如何用一个稀疏矩阵来表达数据特征,稀疏矩阵可以使神经网络在迭代运算中得到又快又好的效果,因此ReLU函数被作为激活函数有着更广泛的应用

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值