Softmax
softmax算子一般用于多分类场景,把神经元的输出映射到(0-1)之间的实数,并且归一化保证和为1,从而使得多分类的概率之和也刚好为1。使得经过softmax后的输出为每个类别的概率,并且各个概率的和为1。
softmax的计算过程为:某元素的指数与所有元素指数和的比值。
在实际应用中,需要注意softmax中存在的数据溢出问题,如果softmax的输入V过大,经过指数运算后,很容易出现数据溢出。解决办法是:将V中的每一个数据,都减去V中的最大值:
D = M a x ( V ) S i = e ( V i − D ) ∑ j C e ( V j − D ) D = Max(V) \\ S_i = \frac {e^{(V_i - D)} } { \sum_{j}^C e^{(V_j - D)}} D=Max(V)Si=∑jCe(Vj−D)e(Vi−D)
softmax更多内容:https://blog.csdn.net/bitcarmanlee/article/details/82320853