https://www.jianshu.com/p/a6131515ee1d
补充:
loss = nn.CrossEntropyLoss()
注意:
- input参数为未激活的张量,函数中会为该张量执行softmax->-log。所以使用该loss时,可以不用预先激活。
- 其中两个参数比较重要,reduce和size_average,默认都为True。reduce=True,此时输出的loss为单个数值,这个前提下,当size_average=True,输出的loss为所有像素的损失的均值,反之为所有像素loss之和。reduce=False,此时输出形式为[b,h,w],其中包含各个像素的loss。
- 该函数中用到的log为ln,底数为e。