分类问题中的交叉熵损失和均方损失

分类问题的损失函数

  1. 交叉熵损失(Cross Entropy Loss):假设误差是二值分布,可以视为预测概率分布和真实概率分布的相似程度。在分类问题中有良好的应用

    CE(θ)=i=1nyilog(y^i)

    其中 yi 表示真实概率分布,只有 yk=1 ,而 yj=0 jk y^i 表示预测概率分布,设它的输入为 θi ,则 y^i=softmax(θi)=exp(θi)jexp(θj)

  2. 均方损失(Mean Square Loss):假设误差是正态分布,适用于线性的输出,特点是对于与真实结果差别越大,则惩罚力度越大,这并不适用于分类问题。

    MS(θ)=1ni=1n(yiy^i)2

    其中 y^i=Wθi 表示 θi 的线性输出。


交叉熵的求导过程

由于只有 yk=1 ,而 yj=0 jk ,则有

CE(θ)====i=1nyilog(y^i)log(y^k)log(exp(θk)jexp(θj))θk+log(jexp(θj))


CE(θ)θ=θkθ+θlog(jexp(θj))

而根据 θkθk=1 θkθq=0 qk ,得到
θkθθilog(jexp(θj))==010exp(θi)jexp(θj)==yy^i

最终得到
CEθ=θlog(jexp(θj))θkθ=y^y

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值