神经网络中常用的损失函数

在神经网络中,常用的损失函数来评估算法模型得到的预测值与真实值之间的差距。损失函数值越小,说明二者之间的差距越小,表明模型拟合的越好。

一般用L(y,f(x))来表示损失函数,其中y表示真实值,f(x)表示预测值,在分类问题中,使用f(x)作为损失函数的变量,而在回归问题中,则使用y-f(x)作为损失函数的变量。

分类问题中常使用的损失函数:

(1)0-1损失

L(y,f(x))=\left\{\begin{matrix} 0 &if(y(f(x)\geq 0)) \\ 1& if(yf(x)< 0) \end{matrix}\right.

0-1损失对输入数据做最直接的判断,当数据输入为真时,结果为1,否则结果为0。

(2)Logistic损失

L(y,f(x))=log(1+e^{-yf(x)})

Logistic损失函数是0-1损失函数的凸上届,函数处处可导,一般使用梯度下降法优化损失值。

(3)Hinge损失

L(y,f(x))=max(0,1-yf(x))

Hinge损失函数常被用于SVM算法中,使得SVM仅通过少量的支持向量就能确定最终超平面。

(4)指数损失

L(y,f(x))=e^{-yf(x)}

指数损失函数一般用在Adaboost算法中。

(5)交叉熵损失

L(y,f(x))=-log(\frac{1+yf(x)}{2})

交叉熵损失函数是分类问题中最常用的损失函数。当使用Sigmoid作为激活函数的时候,常用交叉熵损失函数而不用均方误差损失函数,因为它可以完美解决平方损失函数权重更新过慢的问题,具有“误差大的时候,权重更新快;误差小的时候,权重更新慢”的良好性质。

回归问题中常用的损失函数:

(1)均方误差

L(y,f(x))=\frac{1}{m}\sum_{i=1}^{m}(y_{i}-f(x_{i}))^{2}

均方误差是预测值与实际值的距离平方的平均值。

(2)平均绝对误差

L(y,f(x))=\frac{1}{m}\sum_{i=1}^{m}\left | y_{i} -f(x_{i})\right |

平均绝对误差是预测值与实际值的距离的平均绝对误差。

(3)Huber误差

L(y,f(x))=\left\{\begin{matrix} \frac{1}{2}(y-f(x)) ^{2}&if\left | y-f(x) \right |\leq \delta \\ \delta \left | y-f(x) \right |-\frac{1}{2}\delta ^{2}&if\left | y-f(x) \right |> \delta \end{matrix}\right.

Huber误差综合了均方误差和平均绝对误差,在变量较小时使用均方误差,在变量较大时使用平均绝对误差。

  • 3
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值