神经网络激活函数

  1. Sigmoid函数
    Sigmoid函数是一种常用的激活函数,它将输入值映射到0到1之间的输出值。它的公式如下: σ ( x ) = 1 1 + e − x \sigma(x) = \frac{1}{1+e^{-x}} σ(x)=1+ex12. ReLU函数ReLU函数是一种常用的激活函数,它将输入值映射到0到正无穷之间的输出值。它的公式如下: R e L U ( x ) = m a x ( 0 , x ) ReLU(x) = max(0,x) ReLU(x)=max(0,x)3. Leaky ReLU函数Leaky ReLU函数是ReLU函数的变体,它在输入值小于0时不是返回0,而是返回一个小的负数。它的公式如下: L e a k y R e L U ( x ) = { x , if  x > 0 α x , otherwise LeakyReLU(x) = \begin{cases} x, & \text{if } x > 0 \\ \alpha x, & \text{otherwise} \end{cases} LeakyReLU(x)={x,αx,if x>0otherwise其中, α \alpha α是一个小的正数,通常取0.01。4. ELU函数ELU函数是一种类似于Leaky ReLU函数的激活函数,它在输入值小于0时不是返回0,而是返回一个小的负数。它的公式如下: E L U ( x ) = { x , if  x > 0 α ( e x − 1 ) , otherwise ELU(x) = \begin{cases} x, & \text{if } x > 0 \\ \alpha(e^x-1), & \text{otherwise} \end{cases} ELU(x)={x,α(ex1),if x>0otherwise其中, α \alpha α是一个小的正数,通常取1。5. Tanh函数Tanh函数是一种常用的激活函数,它将输入值映射到-1到1之间的输出值。它的公式如下: t a n h ( x ) = e x − e − x e x + e − x tanh(x) = \frac{e^x-e^{-x}}{e^x+e^{-x}} tanh(x)=ex+exexex6. Softmax函数Softmax函数是一种常用的激活函数,它将输入值映射到0到1之间的输出值,并且所有输出值的和为1。它的公式如下: s o f t m a x ( x i ) = e x i ∑ j = 1 n e x j softmax(x_i) = \frac{e^{x_i}}{\sum_{j=1}^ne^{x_j}} softmax(xi)=j=1nexjexi其中, n n n是输出的维度。7. Swish函数Swish函数是一种新的激活函数,它在ReLU函数的基础上加入了一个sigmoid函数。它的公式如下: S w i s h ( x ) = x σ ( β x ) Swish(x) = x\sigma(\beta x) Swish(x)=xσ(βx)其中, β \beta β是一个可调参数。8. Maxout函数Maxout函数是一种新的激活函数,它将输入值分成若干个部分,每个部分都进行线性变换,然后取最大值作为输出。它的公式如下: M a x o u t ( x ) = m a x ( w 1 T x + b 1 , w 2 T x + b 2 , . . . , w k T x + b k ) Maxout(x) = max(w_1^Tx+b_1, w_2^Tx+b_2, ..., w_k^Tx+b_k) Maxout(x)=max(w1Tx+b1,w2Tx+b2,...,wkTx+bk)其中, k k k是分段的数量, w i w_i wi b i b_i bi是可学习的参数。9. PReLU函数PReLU函数是一种类似于Leaky ReLU函数的激活函数,它在输入值小于0时不是返回0,而是返回一个小的负数。不同之处在于,PReLU函数的负数部分是可学习的。它的公式如下: P R e L U ( x ) = { x , if  x > 0 α x , otherwise PReLU(x) = \begin{cases} x, & \text{if } x > 0 \\ \alpha x, & \text{otherwise} \end{cases} PReLU(x)={x,αx,if x>0otherwise其中, α \alpha α是一个可学习的参数。10. SELU函数SELU函数是一种新的激活函数,它在输入值小于0时不是返回0,而是返回一个小的负数。不同之处在于,SELU函数的负数部分是根据一定的规则计算的。它的公式如下: S E L U ( x ) = λ { x , if  x > 0 α ( e x − 1 ) , otherwise SELU(x) = \lambda \begin{cases} x, & \text{if } x > 0 \\ \alpha(e^x-1), & \text{otherwise} \end{cases} SELU(x)=λ{x,α(ex1),if x>0otherwise其中, λ \lambda λ α \alpha α是可调参数,通常取1和1.67326。11. Gaussian Error Linear Units (GELU)函数GELU函数是一种新的激活函数,它在输入值小于0时不是返回0,而是返回一个小的负数。不同之处在于,GELU函数的负数部分是根据高斯误差函数计算的。它的公式如下: G E L U ( x ) = x P ( X ≤ x ) GELU(x) = xP(X \leq x) GELU(x)=xP(Xx)其中, X X X是一个服从标准正态分布的随机变量, P ( X ≤ x ) P(X \leq x) P(Xx)是它的累积分布函数。12. ArcTan函数ArcTan函数是一种常用的激活函数,它将输入值映射到-1到1之间的输出值。它的公式如下: A r c T a n ( x ) = t a n − 1 ( x ) ArcTan(x) = tan^{-1}(x) ArcTan(x)=tan1(x)13. Softplus函数Softplus函数是一种常用的激活函数,它将输入值映射到0到正无穷之间的输出值。它的公式如下: S o f t p l u s ( x ) = l o g ( 1 + e x ) Softplus(x) = log(1+e^x) Softplus(x)=log(1+ex)14. Bent Identity函数Bent Identity函数是一种常用的激活函数,它将输入值映射到0到正无穷之间的输出值。它的公式如下: B e n t I d e n t i t y ( x ) = x 2 + 1 − 1 2 + x BentIdentity(x) = \frac{\sqrt{x^2+1}-1}{2}+x BentIdentity(x)=2x2+1 1+x15. Sinusoid函数Sinusoid函数是一种常用的激活函数,它将输入值映射到-1到1之间的输出值。它的公式如下: S i n u s o i d ( x ) = s i n ( x ) Sinusoid(x) = sin(x) Sinusoid(x)=sin(x)16. Hard Sigmoid函数Hard Sigmoid函数是一种类似于Sigmoid函数的激活函数,它将输入值映射到0到1之间的输出值。不同之处在于,Hard Sigmoid函数的计算比Sigmoid函数更简单。它的公式如下: H a r d S i g m o i d ( x ) = { 0 , if  x < − 2.5 1 , if  x > 2.5 0.2 x + 0.5 , otherwise HardSigmoid(x) = \begin{cases} 0, & \text{if } x < -2.5 \\ 1, & \text{if } x > 2.5 \\ 0.2x+0.5, & \text{otherwise} \end{cases} HardSigmoid(x)=0,1,0.2x+0.5,if x<2.5if x>2.5otherwise17. Hard Tanh函数Hard Tanh函数是一种类似于Tanh函数的激活函数,它将输入值映射到-1到1之间的输出值。不同之处在于,Hard Tanh函数的计算比Tanh函数更简单。它的公式如下: H a r d T a n h ( x ) = { − 1 , if  x < − 1 1 , if  x > 1 x , otherwise HardTanh(x) = \begin{cases} -1, & \text{if } x < -1 \\ 1, & \text{if } x > 1 \\ x, & \text{otherwise} \end{cases} HardTanh(x)=1,1,x,if x<1if x>1otherwise18. Softsign函数Softsign函数是一种常用的激活函数,它将输入值映射到-1到1之间的输出值。它的公式如下: S o f t s i g n ( x ) = x 1 + ∣ x ∣ Softsign(x) = \frac{x}{1+|x|} Softsign(x)=1+xx19. ISRU函数ISRU函数是一种常用的激活函数,它将输入值映射到-1到1之间的输出值。它的公式如下: I S R U ( x ) = x 1 + α x 2 ISRU(x) = \frac{x}{\sqrt{1+\alpha x^2}} ISRU(x)=1+αx2 x其中, α \alpha α是一个可调参数。20. Logit函数Logit函数是一种常用的激活函数,它将输入值映射到0到1之间的输出值。它的公式如下: L o g i t ( x ) = 1 1 + e − x Logit(x) = \frac{1}{1+e^{-x}} Logit(x)=1+ex121. Mish函数Mish函数是一种新的激活函数,它在输入值小于0时不是返回0,而是返回一个小的负数。不同之处在于,Mish函数的负数部分是根据双曲正切函数计算的。它的公式如下: M i s h ( x ) = x tanh ⁡ ( ln ⁡ ( 1 + e x ) ) Mish(x) = x\tanh(\ln(1+e^x)) Mish(x)=xtanh(ln(1+ex))22. SQNL函数SQNL函数是一种常用的激活函数,它将输入值映射到-1到1之间的输出值。它的公式如下: S Q N L ( x ) = { x − x 2 4 , if  x ≤ 2 x − 3 4 , if  2 < x ≤ 3 x − 9 4 + x 2 , if  x > 3 SQNL(x) = \begin{cases} x-\frac{x^2}{4}, & \text{if } x \leq 2 \\ x-\frac{3}{4}, & \text{if } 2 < x \leq 3 \\ x-\frac{9}{4}+\frac{x}{2}, & \text{if } x > 3 \end{cases} SQNL(x)=x4x2,x43,x49+2x,if x2if 2<x3if x>323. ReSQNL函数ReSQNL函数是一种类似于SQNL函数的激活函数,它将输入值映射到-1到1之间的输出值。不同之处在于,ReSQNL函数的计算比SQNL函数更简单。它的公式如下: R e S Q N L ( x ) = { x − x 2 4 , if  x ≤ 1 x , otherwise ReSQNL(x) = \begin{cases} x-\frac{x^2}{4}, & \text{if } x \leq 1 \\ x, & \text{otherwise} \end{cases} ReSQNL(x)={x4x2,x,if x1otherwise24. Gaussian函数Gaussian函数是一种常用的激活函数,它将输入值映射到0到1之间的输出值。它的公式如下: G a u s s i a n ( x ) = e − x 2 Gaussian(x) = e^{-x^2} Gaussian(x)=ex225. Cosine函数Cosine函数是一种常用的激活函数,它将输入值映射到-1到1之间的输出值。它的公式如下: C o s i n e ( x ) = c o s ( x ) Cosine(x) = cos(x) Cosine(x)=cos(x)26. Inverse Square Root Linear Unit (ISRLU)函数ISRLU函数是一种新的激活函数,它在输入值小于0时不是返回0,而是返回一个小的负数。不同之处在于,ISRLU函数的负数部分是根据平方根函数计算的。它的公式如下: I S R L U ( x ) = { x , if  x > 0 x 1 + α x 2 , otherwise ISRLU(x) = \begin{cases} x, & \text{if } x > 0 \\ \frac{x}{\sqrt{1+\alpha x^2}}, & \text{otherwise} \end{cases} ISRLU(x)={x,1+αx2 x,if x>0otherwise其中, α \alpha α是一个可调参数。27. Exponential Linear Unit (ELiU)函数ELiU函数是一种新的激活函数,它在输入值小于0时不是返回0,而是返回一个小的负数。不同之处在于,ELiU函数的负数部分是根据指数函数计算的。它的公式如下: E L i U ( x ) = { x , if  x > 0 α ( e x − 1 ) , otherwise ELiU(x) = \begin{cases} x, & \text{if } x > 0 \\ \alpha(e^x-1), & \text{otherwise} \end{cases} ELiU(x)={x,α(ex1),if x>0otherwise其中, α \alpha α是一个可调参数。28. Inverse Exponential Linear Unit (I-ELU)函数I-ELU函数是一种新的激活函数,它在输入值小于0时不是返回0,而是返回一个小的负数。不同之处在于,I-ELU函数的负数部分是根据指数函数的倒数计算的。它的公式如下: I − E L U ( x ) = { x , if  x > 0 ln ⁡ ( 1 + α x ) α , otherwise I-ELU(x) = \begin{cases} x, & \text{if } x > 0 \\ \frac{\ln(1+\alpha x)}{\alpha}, & \text{otherwise} \end{cases} IELU(x)={x,αln(1+αx),if x>0otherwise其中, α \alpha α是一个可调参数。29. SineReLU函数SineReLU函数是一种新的激活函数,它在输入值小于0时不是返回0,而是返回一个小的负数。不同之处在于,SineReLU函数的负数部分是根据正弦函数计算的。它的公式如下:$$SineReLU(x) = \begin{cases} x, & \text{if } x > 0 \ \sin(\
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值