主要有均方差和交叉熵损失 MSE 目标与计算之间差的平方和。注意norm2是要开根号的 用norm调用如下: torch.norm(y-pred,2).pow(2) 用pytorch可以自动求导 方法一:用autograd.grad() 方法二: 用backward函数,会自动计算所有的梯度大小,用grad可以调用 Softmax 在分类问题中常用的激活函数,可以将打分转化为可能性大小 pytorch举例: 首先创建一个记录梯度信息的13的Tensor 调用softmax函数,指定维度 注意求梯度的时候,传入的因变量要是一个标量或者11的Tensor