-
什么是softmax
如果判断输入属于某一个类的概率大于属于其他类的概率,那么这个类对应的值就逼近于1,其他类就逼近于0.
Softmax=exp(logits)/reduce_sum(exp(logits),dim)
-
Softmax原理
在网络模型中,我们把等式两点都进行Ln运算,这样,进行ln运算后属于y1类的概率就可以转化为:ln运算后的x1满足某个条件的概率加上ln运算后的x2满足某个条件的概率。这样y1=x1w11+x2w12等于ln运算后的y1的概率了。
-
Softmax的接口
Softmax接口 |
描述 |
torch.nn.Softmax() |
计算Softmax,参数dim表示计算的维度 |
torch.nn.Softmax2d() |
对每个图片进行Softmax处理 |
torch.nn.LogSoftmax(logits,name=None) |
对Softmax取对数,常与NLLLoss联合使用,实现交叉熵损失的计算 |