在机器学习中为什么只需要正的误差而不用负的误差

如果我们使用数百万对input->goal_prediction(输入->预测目标)来进行训练,在此基础上,我们仍然希望能够做出准确的预测。因此,我们希望可以将数百万对数据的平均误差降为0。

如果误差可以是正的,也可以是负的,那么会出现问题。想象一下,如果想要使神经网络正确预测量两个数据点——也就是两对input->goal_prediction(输入->预测目标)。如果第一个预测的误差是1000,而第二个产生的误差是-1000,那么平均误差将为0!

在这种情况下,我们会自欺欺人地认为自己预测得很完美,但是实际上每次预测的误差高达1000!,这简直太可怕了。因此,我们会希望每次预测的误差总是正的,这样当我们对它们进行平均时,它们就不会发生像互相抵消这种意外的错误。

这就是为什么在机器学习中为什么只需要正的误差而不用负的误差!

资料来源:《深度学习图解》—— 安德鲁·特拉斯克

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值