损失函数

1. L2范数损失函数,也叫欧几里得损失函数,实际上是预测值到目标的距离的平方,tensorflow中用法:tf.nn.l2_loss(),这个损失函数的优点在于曲线在接近目标时足够平缓,所以可以利用这个特点在接近目标时,逐渐缓慢收敛过去。这个损失函数一般用在回归问题。

2. L1范数损失函数,采用绝对值,特点是对异常值曲线不像L2范数损失函数那样陡峭,由于曲线在目标出不平滑,所以可能导致算法在这个点收敛不是很好。

3. Pseudo-Huber损失函数,是一个连续且平滑的对Huber损失函数的近似。这个函数在目标附近是凸(convex)的,并且对数据中的游离点较不敏感,具有上述的两个损失函数的优点。需要一个额外的参数delta决定曲线的斜率。

4. Hinge loss损失函数,在支持向量机里面最常用,但是也可以被用在神经网络中,它计算到两个目标分类1, -1的损失。

5. 交叉熵损失函数,表示的是两个概率分布之间的距离,值越小,两个概率分布之间的距离值越近。交叉熵克服方差代价函数更新权重过慢的问题。--对这个不是很理解。

  假设一个三分类问题,正确答案是(1,0,0),有两个答案,(0.5,0.4,0.1)和(0.8,0.1,0.1)那么两个答案和正确答案的交叉熵分别是:

    答案(0.5,0.4,0.1):-(1*lg0.5+0*lg0.4+0*lg0.1) = 0.3

    答案(0.8,0.1,0.1):-(1*lg0.8 + 0*lg0.1 + 0*lg0.1) = 0.1

  可以看到越接近的概率分布具有越小的交叉熵值。

 

 

summary:

 

转载于:https://www.cnblogs.com/buxizhizhoum/p/8253799.html

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值