机器学习中的基本问题——log损失与交叉熵的等价性

1、log损失

log损失的基本形式为:

log(1+exp(m)) l o g ( 1 + e x p ( − m ) )

其中, m=yy^ m = y ⋅ y ^ y{1,1} y ∈ { − 1 , 1 }

对上述的公式改写:

1mi=1mlog(1+exp(y(i)y(i)^)) ⇒ 1 m ∑ i = 1 m l o g ( 1 + e x p ( − y ( i ) ⋅ y ( i ) ^ ) )

已知:
σ(x)=11+exp(x) σ ( x ) = 1 1 + e x p ( − x )

σ(x)=1σ(x) σ ( x ) = 1 − σ ( − x )

1mi=1mlog(σ(y(i)y(i)^)1)=1mi=1mlogσ(y(i)y(i)^) ⇒ 1 m ∑ i = 1 m l o g ( σ ( y ( i ) ⋅ y ( i ) ^ ) − 1 ) = − 1 m ∑ i = 1 m l o g σ ( y ( i ) ⋅ y ( i ) ^ )

2、交叉熵

交叉熵的一般形式为:

H(y,y^)=ylogσ(y^) H ( y , y ^ ) = − ∑ y ⋅ l o g σ ( y ^ )

对于 m m 个样本,则交叉熵为:

H(y,y^)=1mi=1m[I{y(i)=1}logσ(y^)+I{y(i)=1}log(1σ(y^))]

H(y,y^)=1mi=1m[I{y(i)=1}logσ(y^)+I{y(i)=1}logσ(y^)] H ( y , y ^ ) = − 1 m ∑ i = 1 m [ I { y ( i ) = 1 } ⋅ l o g σ ( y ^ ) + I { y ( i ) = − 1 } ⋅ l o g σ ( − y ^ ) ]

由于 y(i){1,1} y ( i ) ∈ { − 1 , 1 } ,且必定为其一。
I{y(i)=k}={01 if y(i)k if y(i)=k ⇒ I { y ( i ) = k } = { 0  if  y ( i ) ≠ k 1  if  y ( i ) = k

H(y,y^)=1mi=1mlogσ(y(i)y(i)^) H ( y , y ^ ) = − 1 m ∑ i = 1 m l o g σ ( y ( i ) ⋅ y ( i ) ^ )

我的博客即将搬运同步至腾讯云+社区,邀请大家一同入驻:https://cloud.tencent.com/developer/support-plan

  • 7
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值