【机器学习与深度学习理论要点】02.什么是激活函数,神经网络中常用的激活函数都有哪些,各自的特点?

激活函数:

神经网络中将输入信号的总和转换为输出信号的函数,激活函数将多层感知机输出转换为非线性,使得神经网络可以任意逼近任何非线性函数,使神经网络可以应用到众多的非线性模型中。

常用的激活函数及特点:

1)sigmoid

① 定义:sigmoid函数也叫Logistic函数,用于隐层神经元输出,能将 ( − ∞ , + ∞ ) (-\infty,+\infty) (,+)的数值映射到(0,1)的区间,可以用来做二分类。表达式为:
f ( x ) = 1 1 + e − x f(x) = \frac{1}{1+e^{-x}} f(x)=1+ex1

② 特点

  • 优点:关于(0,0.5)对称,平滑、易于求导
  • 缺点:激活函数计算量大,反向传播求误差梯度时,求导涉及除法;反向传播时,很容易就会出现梯度消失

2)tanh

①定义:双曲线正切函数,表达式为:
f ( x ) = 1 − e − 2 x 1 + e − 2 x f(x) = \frac{1-e^{-2x}}{1+e^{-2x}} f(x)=1+e2x1e2x
②特点:

  • 优点:关于坐标原点对称,平滑,易于求导,输出均值为0,收敛速度比sigmoid快,从而可以减少迭代次数。
  • 缺点:很容易出现梯度消失。

3)Relu
在这里插入图片描述

①定义:修正线性单元,其表达式为:
f ( x ) = { x ( x > 0 ) 0 ( x < = 0 ) f(x) = \begin{cases} x & (x>0)\\ 0 & (x<=0) \end{cases} f(x)={x0(x>0)(x<=0)
②特点:

  • 优点:计算过程简单,避免了梯度爆炸和梯度消失。
  • 缺点:小于等于0时无输出。

前两者sigmoid/tanh比较常见于全连接层,后者relu常见于卷积层

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YEGE学AI算法

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值