平均梯度、信息熵、brenner梯度函数和能量函数_面试篇——机器学习中的损失函数...

f743a43651f34bd633c9382d5d90bf5d.gif 点击上方蓝字 关注我吧

前言

先问你几个问题,检查下你对损失函数的了解程度,看你能顺利答出来不

  1. 你了解交叉熵和相对熵的区别和联系吗?
  2. 为什么分类问题的损失函数一般用交叉熵而不用相对熵?
  3. 为什么分类问题的损失函数一般用交叉熵而不用MSE?

这几个问题都很基础,所以面试中常被问到。不过我们平时学算法原理的时候,一般只了解用到了什么损失函数,不怎么会思考为什么用这个损失函数,所以突然被问到的话有可能不能很好分析出具体的原因。本篇梳理了常见的应用于分类、回归任务中的损失函数,同时附上以上三个问题的参考分析。

二分类

0-1 loss

a69d00fb0c0a919e1ad119b447d1a8c5.png

记录了分类错误的次数,当样本的真实标签值与预测标签值不相等时,损失为1,反之则损失为0,即预测值等于真实值时没有损失。

使用0-1 loss的常见算法有感知机

0-1 loss 对离群点很鲁棒,但是是非凸的,不连续且不可导,比较难以优化

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值