深度学习部分激活函数

本文概述了sigmoid、ReLU、Tanh、LeakyReLU、Swish和mish等常见的神经网络激活函数,讨论了它们的公式、优点(如计算效率和缓解梯度消失)以及适用场景,重点强调了ReLU的替代选项以提高网络性能。
摘要由CSDN通过智能技术生成

一.sigmoid

函数公式:{\sigma (x)}=\frac{1}{1+{e}^{-x}}

因此图像如图,摘自知乎(侵删)

压缩函数

sigmoid将数值压缩到(0,1)

激活函数

sigmoid是一个非线性函数,输出将是一个非线性的加权和(下一个神经元)输入,

二.ReLU

替换了sigmoid,由于sigmoid的计算量大,反向传播计算量大。

并且sigmoid容易出现梯度消失的情况

ReLU可以时部分输出为0,可以使得网络变得稀疏,减少参数的依存性,缓解过拟合

公式:{f(x)}=max(0,x)

三.Tanh(双曲正切函数)

公式如下:tanh(x)=\frac{​{e^x}-{e^{-x}}}{​{e^x}+e^{-x}}

图像

四.Leaky ReLU

公式:LeakyReLU=\left\{ \begin{array}{rcl} x&x>0\\ \alpha x&x\leq 0 \end{array} \right.

特点

1)Leaky ReLU函数通过把x xx的非常小的线性分量给予负输入0.01 x 0.01x0.01x来调整负值的零梯度问题。
2)Leaky有助于扩大ReLU函数的范围,通常α \alphaα的值为0.01左右。
3)Leaky ReLU的函数范围是负无穷到正无穷。
 

五.Swish函数

f(x)=x*sigmoid(x)=\frac{\beta x}{1+e^{-\beta x}}

swish激活函数_swish函数-CSDN博客

六.mish函数

mish激活函数_帮我用matlab语言绘制mish激活函数-CSDN博客

公式:f(x)=x*\frac {(1+e^x)^2 -1}{(1+e^x)^2 +1}

y = x*tanh(ln(1+exp(x)))

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值