【KD】多标签“Softmax+交叉熵”的软标签版本

本文介绍了如何将多标签分类的“Softmax+交叉熵”损失函数推广到软标签场景。作者从多个“sigmoid+二分类交叉熵”的软标签版本出发,提出损失函数的候选形式,并证明了该形式在软标签下能够学到有意义的结果。通过具体的实现技巧,文章讨论了如何在实际应用中结合label smoothing、mixup等技巧。
摘要由CSDN通过智能技术生成

目录

简介

巧妙联系

形式猜测

证明结果

实现技巧

文章小结

参考


简介

《将“softmax+交叉熵”推广到多标签分类问题》中,我们提出了一个用于多标签分类的损失函数:


这个损失函数有着单标签分类中“Softmax+交叉熵”的优点,即便在正负类不平衡的依然能够有效工作。但从这个损失函数的形式我们可以看到,它只适用于“硬标签”,这就意味着label smoothing、mixup等技巧就没法用了。本文则尝试解决这个问题,提出上述损失函数的一个软标签版本。

巧妙联系

多标签分类的经典方案就是转化为多个二分类问题,即每个类别用sigmoid函数

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值