softmax(一):从梯度的角度分析,softmax与sigmoid在损失函数中的不同 (Faster RCNN中出现,值得搞清楚) softmax(二):softmax交叉熵不是真正的目标函数 Pytorch小记-torch.nn.Softmax(dim=1)如何理解?