激活函数总结1:ReLU及其变体

本文总结了ReLU及其多种变体,包括Noisy ReLU、softplus、LeakyReLU、PReLU和ELU。这些非饱和激活函数主要用于解决梯度消失问题和加快神经网络的收敛速度。ReLU在CNN中广泛使用,但存在死ReLU问题;Noisy ReLU引入噪声以增加模型复杂性;softplus虽平滑但计算量大;LeakyReLU和PReLU通过调整负数区域斜率缓解死ReLU问题,PReLU的斜率是可学习的;ELU则在保持ReLU优势的同时,其负数区域能提供一定的鲁棒性。Dynamic ReLU则动态地根据输入数据生成分段线性函数的斜率。
摘要由CSDN通过智能技术生成

激活函数可以被分为2类,“饱和激活函数”和“非饱和激活函数”。sigmoidtanh是“饱和激活函数”,而ReLU及其变体则是“非饱和激活函数”。使用“非饱和激活函数”的优势在于两点:
    (1)首先,“非饱和激活函数”能解决所谓的“梯度消失”问题。
    (2)其次,它能加快收敛速度。
    Sigmoid函数需要一个实值输入压缩至[0,1]的范围,σ(x) = 1 / (1 + exp(−x))。
    tanh函数需要讲一个实值输入压缩至 [-1, 1]的范围,tanh(x) = 2σ(2x) − 1。

ReLU:

CNN中常用。对正数原样输出,负数直接置零。在正数不饱和,在负数硬饱和。relu计算上比sigmoid或者tanh更省计算量,因为不用exp,因而收敛较快。但是还是非zero-centered。

relu在负数区域被kill的现象叫做dead relu,这样的情况下,有人通过初始化的时候用一个稍微大于零的数比如0.01来初始化神经元,从而使得relu更偏向于激活而不是死掉,但是这个方法是否有效有争议。

Noisy ReLU:  

ReLU可以被扩展以包括高斯噪声(Gaussian noise): 𝑓(𝑥)=max(0,&

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值