深度学习:激活函数

激活函数指的是,我们在应用于神经网络中的函数,(通常)应用于在输入特征结合权重和输入特征应用仿射变换操作之后。激活函数是典型的非线性函数。ReLU是过去十年中最流行的一种。激活函数的选择与网络结构有关,而且近年来出现了许多替代方案。
1、Rectified Linear Units (Relu)

ReLU在正维度上是线性的,在负维度上是零。函数中的扭结是非线性的来源。正维度的线性的特性是,尽管只有负维度线的一半梯度为零,但仍可以防止梯度的非饱和(与Sigmoid相反)。

在这里插入图片描述

2、Sigmoid Activation

Sigmoid激活函数的缺点是:从更深的隐藏层到输入的反向传播过程中,存在急剧的梯度阻碍、梯度饱和和缓慢的收敛问题。

在这里插入图片描述

3、Tanh Activation

实际上,Tanh函数比Sigmoid函数更受欢迎,因为它在多层神经网络中具有更好的性能。但Tanh并没有解决sigmoids所面临的梯度消失问题,梯度消失的问题在ReLU函数中得到有效地解决。

在这里插入图片描述

3、Leaky Relu

Leaky ReLU是一种基于ReLU的激活函数。它对负值的计算的斜率很小,不像Relu那样是平坦的斜率。斜率系数a是在训练前确定的,作为超参进行微调,在训练中不学习。这种类型的激活函数在遇到稀疏梯度的任务中可进行使用,例如训练生成式对抗网络(GAN)。

在这里插入图片描述

4、Gaussian Error Linear Units (GRELU)

GELU激活函数是,在是标准高斯累积分布函数。GELU非线性用百分比来加权输入,而不是像Relu()那样用符号来加权输入。所以,GELU可以被认为是一个更平滑的ReLU。
在这里插入图片描述

在实际使用中,可以使用或者近似GRELU。但PyTorch的精确实现足够快,因此这些近似可能是不必要的。GELU被用在GBT-3, BERT, 和其他类型的Transformers中.
————————————————
版权声明:本文为CSDN博主「MarkJhon」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_31554953/article/details/120614667

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值