深度学习中的gelu激活函数详解

论文:gaussian error linear units(一)、什么是gelus激活函数?gelus(gaussian error linear units)就是我们常说的高斯误差线性单元,它是一种高性能的神经网络激活函数,公式如下:(1)xP(X≤x)=xΦ(x){xP(X \le x)=x\Phi(x)}\tag{1}xP(X≤x)=xΦ(x)(1)计算结果大约为:(2)0.5x(1+...
摘要由CSDN通过智能技术生成

论文gaussian error linear units
(一)、什么是激活函数?
激活函数的本质就是给网络模型增加非线性,也就是在 w T x + b w^Tx+b wTx+b等线性变换后面加一个非线性变换,这个非线性变换就称为激活函数。

(二)、什么是gelu激活函数?
gelu(gaussian error linear units)就是我们常说的高斯误差线性单元,它是一种高性能的神经网络激活函数,因为gelu的非线性变化是一种符合预期的随机正则变换方式,公式如下: x P ( X ≤ x ) = x Φ ( x ) (2.1) {xP(X \le x)=x\Phi(x)}\tag{2.1} xP(Xx)=xΦ(x)(2.1)其中 Φ ( x ) \Phi(x) Φ(x)指的是 x x x的高斯正态分布的累积分布,完整形式如下: x P ( X ≤ x ) = x ∫ − ∞ x e − ( X − μ ) 2 2 σ 2 2 π σ   d X (2.2) {xP(X \le x)=x\int_{-\infty}^{x}\frac{e^{-\frac{(X-\mu)^2}{2\sigma^2}}}{\sqrt{2\pi}\sigma} \, \mathrm{d}X}\tag{2.2} xP(Xx)=xx2π

  • 19
    点赞
  • 100
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值