小结:常用激活函数

本文介绍了神经网络中常用的激活函数,包括sigmoid、tanh、ReLU及其多种变体,如Swish、Mish、Leaky ReLU等。讨论了它们的概念、优缺点,并探讨了激活函数在神经网络中的作用,如非线性转换、梯度计算和防止梯度消失等问题。
摘要由CSDN通过智能技术生成

0 基础

0.1 what激活?

在NN的神经元上运行的函数,负责将神经元的输入映射到输出

0.2 why激活?

没有激活,每层的输出都是上层的线性组合,整个NN的输出就是输入的线性组合,无法逼近任意函数

0.3 激活的特性?

(1)非线性
(2)可微性:GD的要求
(3)单调性:保证单层NN是凸函数
(4)输出范围:
有限时,基于梯度的优化,更稳定
无限时,训练高效,用小的lr

1 sigmoid

1.1 概念

在这里插入图片描述
在这里插入图片描述
定义域:(-∞,+∞)
值域:(0,1)
在定义域内,是连续、光滑的函数
处处可导,导数为 f’(x) = f(x)*(1-f(x))

1.2 优点

(1)实现非线性变换
(2)梯度容易计算
(3)可以进行数据压缩

1.3 缺点

双边饱和,易出现梯度消失

1.4 sigmoid变体

1.4.1 Swish

无上界、平滑、单调
在这里插入图片描述
下图中,β=1
在这里插入图片描述
在这里插入图片描述

1.4.2 logSigmoid

在这里插入图片描述
在这里插入图片描述

2 tanh(双曲正切)

2.1 概念

TanHyperbolic
在这里插入图片描述

在这里插入图片描述
定义域:(-∞,+∞)
值域:(-1,1)
在定义域内,是连续、光滑的函数
处处可导,导数为 f’(x) =1-f2(x)

tf.nn.tanh

2.2 优点

(1)实现非线性变换
(2)梯度容易计算
(3)可以进行数据压缩
(4)近0处,梯度比sigmoid大,收敛快
&#x

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值