神经网络常用激活函数对比 sigmoid VS sofmax(附python源码)

本文深入探讨了Sigmoid和Softmax函数在深度学习和分类任务中的应用。Sigmoid适用于二分类,输出值在0到1之间,而Softmax则用于多分类,输出为每个类别的概率且总和为1。两者在数学特性上有显著差异,Softmax是Sigmoid的扩展,尤其在神经网络中有着广泛的应用。
摘要由CSDN通过智能技术生成
               

更多深度文章,请关注:https://yq.aliyun.com/cloud

Softmax函数与Sigmoid函数之间的区别

作者介绍:


Saimadhu Polamuri:是一名自学成才的数据科学家,对数据科学有热爱和兴趣,他认为学习意味着生活,擅长使用python编程,业余时间在quora上回答问题。

领英:https://www.linkedin.com/in/saimadhu/

博客:http://dataaspirant.com/author/saimadhu/


Softmax函数VS Sigmoid函数在学习逻辑回归概念时,主要的困惑在于计算概率的函数,由于在逻辑回归模型中会使用计算出的概率来预测目标类别,经常用到的两个函数是Softmax和Sigmoid函数。从函数水平(帮助预测目标类别)上来看,这两个函数是相同的,但存在许多明显的数学差异,应用在深度学习和其他领域中,发挥了至关重要的作用。所以在这篇文章中将进一步了解这两个函数及其应用之间的根本区别。在开始之前,介绍本文的目录

  • 什么是S型函数?
  • S形函数的性质
  • Sigmoid函数的使用
  • 在Python中实现Sigmoid函数
  • 创建Sigmoid函数图像形 
  • 什么是Softmax函数?
  • Softmax函数的性质
  • Softmax函数的使用
  • 在Python中实现Softmax函数
  • 创建Softmax函数图像形 
  • Sigmoid函数与Softmax函数之间的差异
  • 结论 


什么是S型函数?

从数学定义上来看,Sigmoid函数取任何范围的实数,返回的输出值在0到1的范围内。S形函数产生“S”型曲线,这些曲线也用于统计,使用累积分布函数(输出范围为0到1)。S形函数的性质

  • sigmoid函数返回一个实值输出。
  • S形函数的一阶导数是非负的或非正的。


  1. 非负数:如果数字大于或等于零。
  2. 非正数:如果数字小于或等于零。

Sigmoid函数的使用

  • Sigmoid函数用于逻辑回归模型中的二进制分类。
  • 在创建人造神经元时,Sigmoid函数用作激活函数。
  • 在统计学中,S形函数图像是常见的累积分布函数。

在Python中实现Sigmoid函数

现在让我们在Python中实现sigmoid函数 

# Required Python Package

import numpyas np


def sigmoid(inputs):

    """

    Calculate the sigmoid for the give inputs (array)

    :param inputs:

    :return:

    """

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值