sigmoid Vs softmax

14 篇文章 1 订阅

在逻辑回归模型中,我们可以使用sigmoid进行二分类,也可以使用softmax进行多分类。
但是这两个有什么区别呢?

1. sigmoid function

F ( x i ) = 1 1 + e x p ( − x i ) F(x_i) = \frac {1}{1+exp(-x_i)} F(xi)=1+exp(xi)1
sigmoid 函数是把输入单独转成0到1之间的输出

  • properties of sigmoid function
    sigmoid 函数返回一个真是的输出值
    sigmoid函数的一阶导数是非负数或者非正。
    (非负:如果数值大于等于0,则导数非负)(非正:数值小于等于0)

  • sigmoid 函数使用
    在logistic regression 中用于二分类
    在神经网络模型中 可用于激活函数 (目前用在二分类的输出层比较多,中间层一般使用 tanh或者relu,relu计算速度快,tanh中心对称,且梯度消失比sigmoid控制的好,因为tanh的梯度在0-1之间 ,sigmoid的梯度在0-1/4之间)
    在统计学中,sigmoid函数图是一个常用的累积分布函数。

  • sigmoid函数在python中的应用

import numpy as np 
def sigmoid(inputs):
	sigmoid_scores = [1/float(1+np.exp(-x)) for x in inputs]
	return sigmoid_scores
sigmoid([2,3,4,5])

sigmoid graph 随着输入增大 会越来越接近1.

2. Softmax function

F ( x i ) = e x p x i ∑ j = 0 k ( e x p x i ) F(x_i) = \frac {exp_{x_i}}{\sum_{j=0}^k (exp_{x_i})} F(xi)=j=0k(expxi)expxi
softmax 计算的是n个不同事件发生的概率分布。计算的是每个事件在所有事件里面发生的概率大小。所以要计算全部的事件概率和。

使用softmax函数的优势是输出在0-1的概率值内,且所有加和也等于1. 如果用于多分类,返回的是每个类别对应的概率,target class就是高概率的值。

  • properties of softmax function
    计算的是概率 值得范围在0-1. 概率加和为1.

  • softmax的使用
    用于多分类的逻辑回归模型
    在神经网络模型中,通常用于最后输出层。

区别:

softmax:

  • 用于逻辑回归的多分类
  • 概率和为1
  • 用于神经网络的不同层
  • 值越大概率越大

sigmoid:

  • 用于逻辑回归的二分类
  • 概率和不等于1
  • 用于建立神经网络时的激活函数
  • 值越大 结果越大 但是不一定较高的概率。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
sigmoidsoftmax都是常用的激活函数,主要用于在神经网络中进行分类任务。 sigmoid函数是一种将实数映射到0到1之间的函数,其公式为f(x) = 1 / (1 + exp(-x))。它主要用于二分类任务,将输入的实数转换为概率值,表示为属于正类的概率。sigmoid函数的特点是输出值在0和1之间,可以对输入进行压缩,同时保留了输入之间的大小关系。因此,sigmoid函数可以用于判断不同类别的元素,并且区分属于同一类的元素谁更属于该类。然而,sigmoid函数在输入趋近于正无穷或负无穷时,输出值趋近于0或1,这可能导致梯度消失的问题,影响了反向传播的效果。 softmax函数是一种将实数向量映射到概率分布的函数,其公式为softmax(x) = exp(x) / sum(exp(x))。它主要用于多分类任务,将输入的实数向量转换为一个概率分布,表示为属于每个类别的概率。softmax函数的特点是将输入进行归一化,使得所有输出概率之和为1。因此,softmax函数可以用于将输入分类到不同的类别,并且可以同时处理多个类别之间的关系。softmax函数在计算上比sigmoid函数复杂一些,因为它需要对输入进行指数运算和求和运算。 总结起来,sigmoid函数适用于二分类任务,softmax函数适用于多分类任务。sigmoid函数将实数映射到0到1之间,而softmax函数将实数向量映射到概率分布。两者都可以用于神经网络中的激活函数,用于在分类任务中转换输入为概率值或概率分布。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [softmaxsigmoid函数的理解](https://blog.csdn.net/qq_31267769/article/details/108203560)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值