深度学习中常见激活函数(ReLU、ELU、Leakly ReLU等)

激活函数作用

        如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合,这种情况就是最原始的感知机(Perceptron)。没有激活函数的每层都相当于矩阵相乘。就算你叠加了若干层之后,无非还是个矩阵相乘罢了。

激活函数分类

        饱和激活函数:sigmod、tanh

        非饱和激活函数:ReLU、Leaky ReLU、ELU、PReLU...

         饱和是指x趋于无穷时,激活函数f(x)的导数趋于0。非饱和激活函数的优势:

        1. 非饱和激活函数能解决梯度消失的问题

        2. 能加速收敛速度

常见激活函数

       ①Sigmoid函数:

        f(x)=\frac{1}{1+e^{-x}}

        函数图为:

        导数为:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值