【python】深度学习中的激活函数(Sigmoid函数、tanh函数、ReLU函数、Softmax函数)

本文详细介绍了深度学习中常见的激活函数,包括Sigmoid、tanh、ReLU和Softmax,阐述了它们的数学表达式、图像表示以及Python实现。这些函数在隐藏层和输出层中起到至关重要的作用,如Sigmoid的0-1映射,ReLU的非线性处理,以及Softmax的归一化输出用于分类任务。
摘要由CSDN通过智能技术生成

什么是激活函数?

在深度学习中,激活函数用于对隐藏层与输出层的单元接收到的输入值进行处理。常用的激活函数有Sigmoid、tanh、ReLU、Softmax函数。

一、Sigmoid函数

1.1 函数表达式为

Sigmoid(x) = 1/(1+exp(x))
主要作用是将函数接收到的值映射到0~1

1.2 Sigmoid函数图像可表示为如下

在这里插入图片描述

1.3 在python中,可以通过以下代码定义Sigmoid函数

import numpy as np
def Sigmoid(x):
    y = 1 / (1 + np.exp(x))
    return y

一、tanh函数

2.1 函数表达式为

tanh(x) = (exp(x) - exp(-x)) /(exp(x) + exp(-x))
tanh函数将接收到的值映射到-1~1。与Sigmoid函数相比,tanh函数的输出值更广泛。

2.2 tanh函数的图像表示如下

在这里插入图片描述

2.3 在python中,可以通过以下代码定义tanh函数

import numpy as np
def tanhfun(x):
    y = (np.exp(x) - np.exp(-x)) / (np.exp(x) + np.exp(-x))
    return y

三、ReLU函数

3.1 ReLU的函数表达式

是深度学习中最常用的激活函数之一。ReLU的函数表达式为:
f(x) = max(0, x)
当自变量z的值小于0时,ReLU函数输出为0,当自变量x的值大于0时,ReLU函数的输出值为自变量本身

3.2 ReLU函数的图像表示如下:

在这里插入图片描述

3.3 在python中,可以通过以下代码定义ReLU函数

def ReLUfun(x):
    if x <= 0:
        return 0
    else:
        return x

四、Softmax函数

4.1 函数表达式

本质上将一个有N个值的数组/向量映射到另一个有N个值的数组,新数组的N个值求和为1。通常把Softmax函数作为神经网络中的输出层完成分类任务。
函数表达式为
Softmax(x) = xi/∑xi

4.2 在python中,可以通过以下代码定义Softmax函数

def softmaxfun(array):
    t = np.exp(array)
    s = np.sum(t)
    return t/s
  • 13
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

高级数据分析师

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值