sigmoid函数用于多标签问题,选取多个标签作为正确答案,它是将任意值归一化为[0-1]之间,并不是不同概率之间的相互关联,且由于远离0的部分梯度较小,容易出现梯度消失现象
Softmax函数用于多分类问题,即从多个分类中选取一个正确答案。Softmax综合了所有输出值的归一化,因此得到的是不同概率之间的相互关联
softmax函数是sigmoid函数在多分类问题上的推广,它是将多分类问题的结果以概率的形式展现出来。
先利用指数函数拉大输入值之间的差距,然后再归一化输出概率值,选择最大概率值作为最后输出。
在深度学习中常常将softmax作为MLP的最后一层,并配合以交叉熵损失函数(对分布间差异的一种度量)