1. Softmax:接收一个实数向量,返回一个概率分布。假设X是一个实数的向量(正数或者负数都可以),然后第i个softmax(x)的组成是
log_softmax: 在softmax的结果上再做一次log运算,数学上等价于log(softmax(x)),但比这两个操作单独做快很多
2.NLLLoss的输入是一个对数概率向量和一个目标标签,自身不会计算对数概率
经常用于网络的最后一层是log_softmax
nn.CrossEntroyLoss()与NLLLoss相同,不同的是交叉熵loss会计算softmax,用于多分类模型