区分点1 — Sigmoid 和 Softmax 区别

本文详细介绍了sigmoid函数和softmax函数,它们都是在机器学习和深度学习中常见的激活函数。sigmoid函数将实数值映射到(0,1)区间,常用于二分类问题。而softmax函数作为sigmoid函数的推广,将k维实数向量压缩到(0,1)的k维概率分布,适用于多分类任务,其输出向量各元素之和为1。理解并正确使用这两个函数对于理解和构建分类模型至关重要。
摘要由CSDN通过智能技术生成

sigmoid函数(也叫逻辑斯谛函数):其实逻辑斯谛函数也就是经常说的sigmoid函数,它的几何形状也就是一条sigmoid曲线。
在这里插入图片描述
logistic曲线如下:
在这里插入图片描述
softmax函数的定义:softmax是logistic函数的一般化,它将任意实数的k维向量z压缩(映射)为范围(0,1)内的实数的k维向量矩阵Z,向量Z中的所有元素的总和为1。

这句话既表明了softmax函数与logistic函数的关系,也同时阐述了softmax函数的本质就是将一个K维的任意实数向量压缩(映射)成另一个K维的实数向量,其中向量中的每个元素取值都介于(0,1)之间,所有元素的总和为1。

softmax函数形式如下:
在这里插入图片描述
总结: sigmoid将一个real value映射到(0,1)的区间(当然也可以是(-1,1)),这样可以用来做二分类。

而softmax把一个k维的real value向量(a1,a2,a3,a4…)映射成一个(b1,b2,b3,b4…)其中bi是一个0-1的常数,然后可以根据bi的大小来进行多分类的任务,如取权重最大的一维。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值