【深度学习基础】激活函数:Tanh、Sigmoid 和 Softmax

激活函数是深度学习模型中不可或缺的一部分,它们赋予神经网络强大的非线性变换能力,使其能够拟合复杂的函数关系。在这篇博文中,我们将探讨三种常见的激活函数:Tanh、Sigmoid 和 Softmax,并提供一些记忆它们的技巧。


1. Tanh 函数

定义
Tanh(双曲正切函数)将输入值压缩到 [-1, 1] 的范围内。其公式如下:
在这里插入图片描述

应用场景

  • 常用于隐藏层的激活函数,特别是在需要零均值化数据的场景。
  • 广泛应用于循环神经网络(RNN)中。

优缺点

  • 优点:输出范围是 [-1, 1],零中心化可以使得数据更好地对称,帮助梯度下降算法更有效地进行优化。
  • 缺点:存在梯度消失问题,当输入值过大或过小时,梯度会变得非常小,影响深层神经网络的训练效果。

示例代码

import numpy as np

def tanh(x):
    return np.tanh(x)

# 示例输入
logit = 0.5
output = tanh(logit)
print(output)  # 输出 0.46211715726000974

记忆技巧

  • Tanh 是“双曲正切”的缩写,输出范围 [-1, 1],零中心化,适合隐藏层。

2. Sigmoid 函数

定义
Sigmoid 函数将输入值压缩到 [0, 1] 的范围内。其公式如下:
在这里插入图片描述

应用场景

  • 常用于二分类问题的输出层激活函数。

优缺点

  • 优点:输出范围 [0, 1],适合处理概率问题。
  • 缺点:存在梯度消失问题,输出不是零中心化。

示例代码

import numpy as np

def sigmoid(x):
    return 1 / (1 + np.exp(-x))

# 示例输入
logit = 0.5
output = sigmoid(logit)
print(output)  # 输出 0.6224593312018546

记忆技巧

  • Sigmoid 函数有一个 “S” 形曲线,输出范围 [0, 1],适合二分类问题的输出层。

3. Softmax 函数

定义
Softmax 函数将向量的输出转化为概率分布,使得所有输出的和为1。其公式如下:

应用场景

  • 常用于多分类问题的输出层激活函数。

优缺点

  • 优点:将向量转化为概率分布,和为1,适合多分类问题。
  • 缺点:需要更多计算资源。

示例代码

import numpy as np

def softmax(x):
    e_x = np.exp(x - np.max(x))
    return e_x / e_x.sum(axis=0)

# 示例输入
logits = np.array([1.0, 2.0, 3.0])
output = softmax(logits)
print(output)  # 输出 [0.09003057 0.24472847 0.66524096]

记忆技巧

  • Softmax 将向量转化为概率分布,和为1,适合多分类问题的输出层。

激活函数的顺序使用

在神经网络中,这些激活函数通常按以下顺序使用:

  1. 输入层:无激活函数,仅用于接受输入数据。
  2. 隐藏层:常用 Tanh 或 ReLU(另一种激活函数)进行激活。
  3. 输出层
    • 二分类问题:使用 Sigmoid 进行激活。
    • 多分类问题:使用 Softmax 进行激活。
    • 回归问题:通常无激活函数,或根据具体需求选择合适的激活函数。

结论

理解和记住 Tanh、Sigmoid 和 Softmax 函数的特性、应用场景和优缺点,可以帮助我们在构建和调试深度学习模型时做出更明智的选择。希望这些记忆技巧和示例代码能够帮助您更好地掌握这些激活函数。


  • 5
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值