在多分类单标签任务中,常使用CrossEntropyLoss作为损失函数,而使用softmax作为对应的最后一层的激活函数。
在Pytorch中,nn.CrossEntropyLoss中已经实现了softmax功能,因此在分类任务的最后一层fc后不需要加入softmax激活函数。因为在计算损失函数时,nn.CrossEntropyLoss函数会自动先将模型输出作一个softmax计算,再与ground truth作损失比较。
参考:
在多分类单标签任务中,常使用CrossEntropyLoss作为损失函数,而使用softmax作为对应的最后一层的激活函数。
在Pytorch中,nn.CrossEntropyLoss中已经实现了softmax功能,因此在分类任务的最后一层fc后不需要加入softmax激活函数。因为在计算损失函数时,nn.CrossEntropyLoss函数会自动先将模型输出作一个softmax计算,再与ground truth作损失比较。
参考: