1.把会归回当作分类来看 在回归中把x输入到模型中得到一个预测的值y,使预测的值和真实值越接近越好。 2. 分类 分类在之前回归的基础上加了softmax。在进行二分类时也可以用sigmoid函数来进行。 softmax的公式 2. 计算预测值与真实值之间的距离。 通常有两种方法: 2.1. 用均方误差(MSE)来求解; 2.2. 交叉熵(Cross-entropy) 更适合求解,在pytorch中softmax被内置到了Cross-entropy中。 在进行二分类任务时,内置了二元交叉熵损失函数。nn.BCEloss() 在MSE中很难找到最优解。