注:借鉴整理,仅供自学,侵删 Softmax可以看做是对sigmoid的一种推广。我们在做二分类问题的时候,一般都使用sigmoid作为输出层激活函数,因为它的范围在0~1之间。多分类使用Softmax函数。 神经网络常见的激活函数汇总 Mish激活函数 Mish:一个新的state of the art的激活函数,ReLU的继任者