torch.autograd.grad与w.backward区别 作用:两者都是求解参数在某点的梯度值 autorgrad.grad参数为 第一个:目标函数 第二个:待求解的自变量参数 backward不需要传入参数,只需要直接调用他 由目标函数tensor调用 二者主要区别: autorgrad.grad返回值为参数的梯度信息tensor backward没有返回值,它将梯度信息自动保存到原来自变量参数tensor的grad属性中