如果我们使用数百万对input->goal_prediction(输入->预测目标)
来进行训练,在此基础上,我们仍然希望能够做出准确的预测。因此,我们希望可以将数百万对数据的平均误差降为0。
如果误差可以是正的,也可以是负的,那么会出现问题。想象一下,如果想要使神经网络正确预测量两个数据点——也就是两对input->goal_prediction(输入->预测目标)
。如果第一个预测的误差是1000,而第二个产生的误差是-1000,那么平均误差将为0!
在这种情况下,我们会自欺欺人地认为自己预测得很完美,但是实际上每次预测的误差高达1000!,这简直太可怕了。因此,我们会希望每次预测的误差总是正的,这样当我们对它们进行平均时,它们就不会发生像互相抵消这种意外的错误。
这就是为什么在机器学习中为什么只需要正的误差而不用负的误差!
资料来源:《深度学习图解》—— 安德鲁·特拉斯克