Federated Learning with Classifier Shift for Class Imbalance

FedShift是一种针对联邦学习(FL)中类不平衡问题的解决方案,它通过在本地训练阶段调整分类器输出来减轻负面影响。理论证明,这种方法可以使局部最优解与全局最优解一致,确保算法的收敛性。传统的重采样或重加权方法可能在某些类别稀少或缺失的情况下导致性能下降。
摘要由CSDN通过智能技术生成

Abstract:

        This paper proposes a simple and effective approach named FedShift which adds the shift on the classifier output during the local training phase to alleviate the negative impact of class imbalance. We theoretically prove that the classifier shift in FedShift can make the local optimum consistent with the global optimum and ensure the convergence of the algorithm. 

文章提到,为了解决FL中的class imbalance问题,直觉的想法对客户训练数据进行resampling 或者 reweighting是有问题的,因为有些类别很少甚至压根没有。这么做甚至会带来严重的性能下降。

Method:

        

 证明:

        

正常实验的话p(y=k)就应该是 1/k 

跟着推了一遍,确实是这样,6啊,这么简单的事情怎么才被人发现呢!惊讶!

不对!!!!!

我又推了一遍,感觉有问题!

发邮件问作者作者没有回复我,难道是我的错误太低级入不了大佬的法眼?

家人们谁也帮着看一看我错哪了。。 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值