Sigmoid和Softmax共通与区分

一、共同点

Softmax以及Sigmoid这两者都是神经网络中的激活函数,将输入非线性化。

都作为神经网络的最后一层,将输出数值转换为概率值。

二、不同点

1、Softmax

S o f t m a x = e x i ∑ j = 1 n e x j Softmax = \frac{e^{x_{i}}}{\sum_{j=1}^{n}e^{x_{j}}} Softmax=j=1nexjexi

img

场景:

  • 对于N分类问题,Softmax输入N个类别的概率( ∑ i = 1 N p i = 1 \sum_{i=1}^{N}p_{i}=1 i=1Npi=1),对应 p i p_{i} pi概率最大的 i i i即为判定的类别。

特性:

  • Softmax得出的是归一化类别概率,真实类别有放大。
  • 零点不可微
  • 负输入梯度为0
  • 非负数且概率和为1,得到不同概率间的相互关联

Tricks:

  • Softmax作为激活函数时会将 e x e^{x} ex替换为 e − x e^{-x} ex防止数值过大而溢出

2、Sigmoid

S i g m o i d = 1 1 + e − x Sigmoid = \frac{1}{1+e^{-x}} Sigmoid=1+ex1

image-20230221182931955

场景:

  • 对于N分类问题,可以确定多个类别(>0.5为1,<0.5为0)

  • 单调递增且其反函数也有递增的性质,此函数也经常被用作神经网络的阈值函数中。 S i g m o i d ′ ( x ) = S i g m o i d ( x ) ⋅ ( 1 − S i g m o i d ( x ) ) Sigmoid'(x)=Sigmoid(x)\cdot(1-Sigmoid(x)) Sigmoid(x)=Sigmoid(x)(1Sigmoid(x))

特性:

  • 对应其值加起来并不为1
  • 梯度平滑,避免梯度跳跃;连续函数,可导可微

缺陷:

  • 横向坐标轴正负无穷的时候,两侧导数为0,造成梯度消失
  • 输出非0时,均值收敛速度慢(容易对梯度造成影响)
  • e的幂次运算比较复杂,训练时间比较长

参考链接:

三分钟认知Softmax和Sigmoid的详细区别

Softmax和Sigmoid函数的区别

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
sigmoidsoftmax都是常用的激活函数,主要用于在神经网络中进行分类任务。 sigmoid函数是一种将实数映射到0到1之间的函数,其公式为f(x) = 1 / (1 + exp(-x))。它主要用于二分类任务,将输入的实数转换为概率值,表示为属于正类的概率。sigmoid函数的特点是输出值在0和1之间,可以对输入进行压缩,同时保留了输入之间的大小关系。因此,sigmoid函数可以用于判断不同类别的元素,并且区分属于同一类的元素谁更属于该类。然而,sigmoid函数在输入趋近于正无穷或负无穷时,输出值趋近于0或1,这可能导致梯度消失的问题,影响了反向传播的效果。 softmax函数是一种将实数向量映射到概率分布的函数,其公式为softmax(x) = exp(x) / sum(exp(x))。它主要用于多分类任务,将输入的实数向量转换为一个概率分布,表示为属于每个类别的概率。softmax函数的特点是将输入进行归一化,使得所有输出概率之和为1。因此,softmax函数可以用于将输入分类到不同的类别,并且可以同时处理多个类别之间的关系。softmax函数在计算上比sigmoid函数复杂一些,因为它需要对输入进行指数运算和求和运算。 总结起来,sigmoid函数适用于二分类任务,softmax函数适用于多分类任务。sigmoid函数将实数映射到0到1之间,而softmax函数将实数向量映射到概率分布。两者都可以用于神经网络中的激活函数,用于在分类任务中转换输入为概率值或概率分布。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [softmaxsigmoid函数的理解](https://blog.csdn.net/qq_31267769/article/details/108203560)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值