Sigmoid函数

本文介绍了Sigmoid函数在神经网络中的作用,它作为一个激活函数,将输入映射到(0,1)区间。Sigmoid函数的导数表达式也被给出,并讨论了其梯度消失问题,指出其在现代神经网络中已被Tanh和ReLU等函数取代。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Sigmoid函数

函数用法:

  • 在使用神经网络进行分类的时候,得到的结果是某一个类型的概率。一般来说,概率的取值范围是(0,1),换句话说,一个负数概率或者一个大于1的概率,是没有实际意义的。这样,我们需要找到一个函数,能够把输入(−∞ , +∞)映射到(0,1)空间中去。Sigmoid函数是一个S型曲线。 由于其单增以及反函数单增等性质,Sigmoid函数常被用作神经网络的阈值函数,将变量映射到0,1之间。

函数公式:

  • S ( x ) = 1 1 + e − x = e x e x + 1 S(x)=\frac{1}{1+e^{-x}}=\frac{e^{x}}{e^{x}+1} S(x)=1+ex1=ex+1ex

函数图像:

在这里插入图片描述

Sigmoid 函数的导数

  • f ( x ) = 1 1 + e − x = e x e x + 1 f(x)=\frac{1}{1+e^{-x}}=\frac{e^{x}}{e^{x}+1} f(x)=1+ex1=ex+1ex

  • d d x f ( x ) = e x ⋅ ( 1 + e x ) − e x ⋅ e x ( 1 + e x ) 2 = e x ( 1 + e x ) 2 = f ( x ) ( 1 − f ( x ) ) \frac{d}{dx}f(x)=\frac{e^{x}·(1+e^{x})-e^{x}·e^{x}}{(1+e^{x})^{2}}=\frac{e^{x}}{(1+e^{x})^{2}}=f(x)(1-f(x)) dxdf(x)=(1+ex)2ex(1+ex)exex=(1+ex)2ex=f(x)(1f(x))
    Simoid函数的导数是偶函数 f ′ ( x ) = f ′ ( − x ) f'(x)=f'(-x) f(x)=f(x)

  • 由于Sigmoid函数存在梯度消失(Gradient Vanishing)和不以0对称的问题,所以基本很少用了。替代者是Tanh 和 Relu,以Relu最常用

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值