激活函数种类与区别

1 激活函数类别

(1)tanh(/ˈtænʃ/)

双曲正切 tanh=sinh/cosh=(ex-e-x)/(ex+e-x)

(2)sigmoid

f(x)=1/(1+e-(wx+b))

(3)Relu(读re路)

rectified linear unit (ReLU)

f(x)=max(0,x)

2  sigmoid、tanh与Relu区别

(1)sigmoid函数。这是传统神经网络中最常用的激活函数之一(另一个是tanh),对应的图像如图所示。

sigmoid函数的优点在于,它的输出映射在(0,1)内,单调连续,非常适合用作输出层,并且求导比较容易。但是,它也有缺点,因为软饱和性 [15] ,一旦输入落入饱和区,f ' (x )就会变得接近于0,很容易产生梯度消失。

(2)tanh函数。对应的图像如图所示。

tanh函数也具有软饱和性。因为它的输出以0为中心,收敛速度比sigmoid要快。但是仍无法解决梯度消失的问题。

(3)relu函数是目前最受欢迎的激活函数。softplus可以看作是ReLU的平滑版本。relu定义为f (x )=max(x ,0)。softplus定义为f (x )=log(1+exp(x ))。

由图可见,relu在x <0时硬饱和。由于x >0时导数为1,所以,relu能够在x >0时保持梯度不衰减,从而缓解梯度消失问题,还能够更快地收敛,并提供了神经网络的稀疏表达能力。但是,随着训练的进行,部分输入会落到硬饱和区,导致对应的权重无法更新,称为“神经元死亡”。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值