CE中我们以torch.nn.functional.cross_entropy举例,我们自己输入进去的以一个参数只需要用logits即可,不需要经过softmax,第二个参量(即目标参量),一般用的是one-hot编码,也可以是经过softmax的class_probability。
MSE中我们以torch.nn.functional.mse_loss举例,输入的两个量其实同为softmax前或同为softmax后都可,主要看你着眼点在于原始的连续特征值还是预测为该特征的实际概率,根据需要可以进行调整。