envi最大似然分类_从最大似然估计理解交叉熵Loss

c2ee4782611e82bfb174290afc3c25f7.png

Motivation:

Cross entropy是计算机视觉算法中重要的概念,在一般分类任务和人脸识别领域常被用作损失函数,它的表达形式并不复杂,但是直观理解却有一定难度,学习好算法,需要对这些基础内容有深刻理解。作者阅读过许多关于Cross entropy的blog,有人对最大似然估计和Cross entropy的关系进行了分析,大多在关键点一笔带过,没有给予完整说明。于是作者在学习了一段时间后,将个人理解整理成这篇读书笔记。


交叉熵Loss被使用的非常频繁,对初学者而言,cross entropy是一个不好理解的概念,没有MSE这种用于回归的Loss直观。理解cross entropy一般有三种途径,一种是从信息熵,还有一种是最优化,而本文是从最大似然估计的角度进行理解,所需知识在本科的概率论与数理统计这门课程就已经学过。

最大似然估计是参数估计的方法。这个名称应该是舶来品,英文名Maximum likelihood estimation,第一次看到似然这个概念很懵逼,中文“似然”这个词也是很生僻,直译为最大可能性估计都比叫似然好理解(当然这个名字其实也并不严谨)。为了方便理解,举一个简单的例子:

假设扔了3次硬币,结果是{正,正,反},如果硬币是标准的,那么正反两面的概

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值