深度学习之激活函数

激活函数的公式根据不同的函数类型而有所不同。以下是一些常见的激活函数及其数学公式:

  1. Sigmoid函数
    • 公式:f(x)=
    • 特性:输出范围在0到1之间,常用于二分类问题,将输出转换为概率值但存在梯度消失问题,尤其在输入值较大或较小时。
  2. Tanh函数(双曲正切函数)
    • 公式:f(x)=
    • 特性:输出范围在-1到1之间,具有更广的取值范围,且均值为0,可以中心化输入信号。但也存在梯度消失问题。
  3. ReLU(Rectified Linear Unit)函数
    • 公式:f(x)=max(0,x)
    • 特性:当x<0时,输出为0;当x>0时,输出为x。ReLU函数计算简单,速度快,且解决了梯度消失问题(在x>0的区域)。但存在“死区”问题,即当x<0时,梯度为0。这时候输入的梯度贡献为0,这意味着在反向传播过程中,该神经元不会对其输入层产生梯度信号。
    • 在0点的梯度怎么处理?(在0处是不可导的)大多数深度学习框架(如TensorFlow、PyTorch等)默认选择右侧导数(即1)作为ReLU在x=0时的梯度。
  4. Leaky ReLU函数
    • 公式:f(x)=max(αx,x)(其中α是一个很小的正数,如0.1)
    • 特性:Leaky ReLU函数试图解决ReLU的“死区”问题,当x<0时,输出为αx而不是0。
  5. Softmax函数
    • 公式:softmax(xi​)=(其中xi​是输入向量中的第i个元素,N是输入向量的维度)
    • 特性:Softmax函数是多分类任务中常用的激活函数,它将每个类别的输出转换为概率分布

以上这些激活函数在神经网络中起着至关重要的作用,它们通过添加非线性因素,使得神经网络能够学习和拟合复杂的真实世界系统。

  • 14
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值