【联系】二项分布的对数似然函数与交叉熵(cross entropy)损失函数

1. 二项分布

二项分布也叫 0-1 分布,如随机变量 x 服从二项分布,关于参数 μ 0μ1 ),其值取 1 和取 0 的概率如下:

{p(x=1|μ)=μp(x=0|μ)=1μ

则在 x 上的概率分布为:

Bern(x|μ)=μx(1μ)1x

2. 服从二项分布的样本集的对数似然函数

给定样本集 D={x1,x2,,xB} 是对随机变量 x 的观测值,假定样本集从二项分布 p(x|μ) 中独立( p(x1,x2,,xN)=ip(xi) )采样得来,则当前样本集关于 μ 的似然函数为:

p(D|μ)=n=1Np(xn|μ)=n=1Nμxn(1μ)1xn

从频率学派的观点来说,通过最大似然函数的取值,可以估计参数 μ ,最大化似然函数,等价于最大化其对数形式:

则有:

lnp(D|μ)===lnμn=1Nxn+ln(1μ)n=1N1xnlnμn=1Nxn+ln(1μ)(Nn=1Nxn)n=1Nxnlnμ+(1xn)ln(1μ)

求其关于 μ 的导数,解得 μ 的最大似然解为:

μML=1Nn=1Nxn

这里我们仅关注:

lnP(D|μ)=n=1Nxnlnμ+(1xn)ln(1μ)

3. 交叉熵损失函数

LH(x,z)=n=1Nxnlogzn+(1xn)log(1zn)

x 表示原始信号, z 表示重构信号。(损失函数的目标是最小化,似然函数则是最大化,二者仅相差一个符号)。

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 5
    评论
交叉熵损失函数和负对数似然损失函数是在机器学习中常用的损失函数,用于衡量模型输出与真实标签之间的差异。 交叉熵损失函数是一种常用的分类问题损失函数。它通过计算模型输出的概率分布与真实标签的概率分布之间的交叉熵来衡量两者的差异。在pytorch中,可以使用torch.nn.CrossEntropyLoss()函数来计算交叉熵损失。这个函数会同时计算softmax函数交叉熵,所以输入的模型输出不需要经过softmax函数处理。 负对数似然损失函数是一种常用的用于最大似然估计的损失函数。在二分类问题中,假设模型的输出是一个介于0和1之间的概率值,表示为θ。负对数似然损失函数可以用来衡量模型输出θ与真实标签0或1之间的差异。当模型输出θ接近1时,即模型预测为正例时的概率较大,负对数似然损失函数的值较小;当模型输出θ接近0时,即模型预测为负例时的概率较大,负对数似然损失函数的值也较小。在pytorch中,可以使用torch.nn.functional.nll_loss()函数来计算负对数似然损失。 综上所述,交叉熵损失函数和负对数似然损失函数都是用来衡量模型输出与真实标签之间的差异的常用损失函数交叉熵损失函数适用于分类问题,而负对数似然损失函数适用于二分类问题。在实际应用中,根据具体的问题和需求选择合适的损失函数来训练模型。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [损失函数-负对数似然交叉熵(Pytorch中的应用)](https://blog.csdn.net/tcn760/article/details/123910565)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* [15/4/2022交叉熵损失函数和负对数似然损失](https://blog.csdn.net/weixin_44228389/article/details/124202843)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

五道口纳什

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值