神经网络中常用的激活函数有哪些

激活函数

公式

优点

缺点

Sigmoid 函数

连续,且平滑便于求导

1.输出恒大于0(none-zero-centered(非零均值),会使训练出现 zig-zagging dynamics(z形震荡收敛) 现象,使得收敛速度变慢。

2. 导数最大值为0.25,连乘会导致梯度消失;

3. 幂函数,计算量大;不建议在NN中间层使用

Tanh函数

解决了非0均值(none-zero-centered)问题;收敛速度比sigmoid快

  1. 导数范围(0,1),会出现梯度消失问题;
  2. 计算量大

Relu

  1. x>0,倒数恒为1,连乘不会存在梯度消失问题
  2. 计算倒数非常快,收敛速度远大于sigmoid和tanh
  3. 在实际应用中最广泛
  1. none-zero-centere问题导致zig-zagging dynamics
  2. Dead ReLU Problem,指的是某些神经元可能永远不会被激活,导致相应的参数永远不能被更新(可以采用 MSRA 初始化方法,以及避免将learning rate设置太大或使用adagrad等自动调节learning rate的算法)

PReLU

为了解决Dead ReLUProblem 的问题,因为当 x 小于 0 时,其输出不再是 0;

实际使用较多.

Swich

SiLU 激活函数

wish 具备无上界有下界、平滑、非单调的特性,效果较 ReLU 要好,特别是在较深的网络中优势更明显

Mish

和 Swish 激活函数很像,无上界有下界、平滑、非单调。

较常用

Softmax

Softmax 函数可视为 Sigmoid 函数的泛化形式

参考:bp神经网络拟合非线性函数github 神经网络 非线性函数_mob64ca141a683a的技术博客_51CTO博客

  • 7
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值