神经网络中的损失函数

总览

这篇文章主要记录了对损失函数和目标函数的理解,然后介绍了两种较常用的损失函数:均方误差和交叉熵。重点是记录对于交叉熵的认识,以及为什么交叉熵可以表示损失或代价,即其作用原理。

正文

深度学习中,我们在定义神经网络模型时,首先要明确模型的损失函数(loss function),即代价函数(cost function)。损失函数的作用是用来表示模型预测值和训练样本之间的差异,我们的目的是通过降低这个损失函数来不断改进模型参数,使模型预测越来越准确。当然,不能只降低某个预测值的损失函数,而是应当降低所有样本的总体损失函数,即全部样本上损失函数的平均值或数学期望,我们将这个期望值称为风险函数(risk function)。在训练集上,通过不断降低损失函数期望即风险函数来逐渐提高模型预测的准确度,就能得到拟合度很高的模型。但这会不可避免地造成过拟合,为了减少这种情况,还需要为损失函数加上另一个函数,即正则化函数,它用来度量模型的复杂度,我们希望模型尽可能的不复杂,以此来降低过拟合的可能性。正则化常用的有L1,L2范数。这样就最终形成了我们的目标函数(objective function)
这里的损失函数取作平方差

神经网络的训练过程就是不断降低目标函数的过程。

  • 3
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值