精读AutoBalance: Optimized Loss Functions for Imbalanced Data

摘要

        为了解决样本不平衡问题,已经有研究提出可以用带参数的损失函数来减轻该问题对模型性能的影响,例如带权CE损失。本文提出了一种通过训练自动调整损失函数的参数的方法,先训练模型权重,再训练损失函数参数,最后重新初始化整个模型的参数,用已经训练好的损失函数训练最终的模型。

方法

架构

        在搜索阶段,先单独训练模型,进行t1轮迭代。接着,将训练集划分为训练数据和验证数据两部分,每一轮迭代,先更新模型参数,再更新损失函数参数,训练t2-t1轮。最后,重置模型参数,进行t2次迭代。

模型损失函数

        本文的重点就是损失函数,损失函数分两部分,一个是针对模型的分类结果的,该模型中含有参数。

        作者基于的,之前的损失函数公式为:

        \large \l (y,f(x))=w_{y}log(1+\sum_{k\neq y}^{}e^{l_{k}-l_{y}}\cdot e^{\Delta _{k}f_{k}(x)-\Delta _{y}f_{y}(x)})

        而作者自己提出的损失函数为

        α的实质是三个K*1向量ω,l和\Delta和一个原文没说得很具体的增强方式A(.)的集合,分别表示传统带权CE损失的参数,对logits的加法改变和对logits的乘法改变。EA为0-1标签的值。 \sigma(.)是sigmoid操作,防止乘法改变的幅度太大。

增强

        上一节提到了增强A(.),这里的增强不是常见的对输入进行简单的变换,个人感觉是在提取出表征representation之后,在这个表征的周围,进行几次随机取样,当作这个表征的同类,然后塞进分类器里。

        如图,深色的为原始数据在空间中的位置,浅色的范围为增强时可能被采样到的点。右边不平等增强时,稀少的类被取样的范围更大,次数更多,就会迫使边界向着数据更多的类移动。

        但虽然能够大致理解远离,但我还是不知道这一步是如何参数化的,感兴趣的可以看看作者的灵感来源:Smote: synthetic minority over-sampling technique。 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值