神经网络激活函数简介

1.Sigmoid

c1b0eb2b9114468cb0f9dbd69a0d02f0.png

75180dbb76bd473ab94a7421a151518f.png

1. 取值为[0, 1]

2. 非零中心函数,导数恒大于零,易造成锯齿形路径(zig-zag path)影响收敛速度

3. 绝对值较大时导数约等于0,造成梯度饱和,影响神经网络的收敛

4. exp计算成本大

* sigmoid函数适用于二分类问题的输出,softmax函数适用于多类别分类问题

2.Tanh

a4a814b8b387478fb7533ba5c50b4fd9.png

1. 取值范围[-1, 1]

2. 零中心

3. 同样易造成梯度饱和

3.ReLU(Rectified Linear Unit) → 𝒇(𝒙) = max(𝟎,𝒙)

c2e7c507aa604641b58a5c4bb955cc60.png

1.在+区域无梯度消失问题

2.计算效率高

3.收敛速度快

4.非零中心,在x<0时梯度消失,因此一旦得到0梯度就不再产生任何更新。

        → 初始化时使用略微正的截距(如0.01)

4.Leaky ReLU

03f6c15f9fdb4b44ad582903487899f9.png

(α默认0.01)

1.永远不会饱和,无梯度消失问题

2.计算效率高

3.收敛速度快

5.ELU

090c3dcb76174ded9b01e9fcc315a78e.png

1.ReLU 的所有优势:

-- 在+区域无梯度消失问题

-- 计算效率高

-- 收敛速度快

2.接近零的平均输出(?)

3.负状态时饱和,梯度消失

4.exp计算成本大

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值