【背景】
Pytorch官方给的CNN模型中,在最后的分类层中并没有使用softmax函数、
【异同】
pytorch里面提供了一个损失函数: torch.nn.CrossEntropyLoss,这里面整合了softmax函数,如果使用这个交叉熵,则不应该在最后一层再使用softmax进行激活。这类似tensorflow中的tf.nn.softmax_cross_entropy_with_logits函数的功能,但是在命名上具有迷惑性。
如果在绘制AUC时候,需要拿到每个类别的分类则在pytorch中应该如下
outputs = model(img) # 调用网络中的forward()方法
out_pro = torch.nn.functional.softmax(outputs) # 计算输出分类的概率,2类的和为1