Abstract:
This paper proposes a simple and effective approach named FedShift which adds the shift on the classifier output during the local training phase to alleviate the negative impact of class imbalance. We theoretically prove that the classifier shift in FedShift can make the local optimum consistent with the global optimum and ensure the convergence of the algorithm.
文章提到,为了解决FL中的class imbalance问题,直觉的想法对客户训练数据进行resampling 或者 reweighting是有问题的,因为有些类别很少甚至压根没有。这么做甚至会带来严重的性能下降。
Method:
证明:
正常实验的话p(y=k)就应该是 1/k
跟着推了一遍,确实是这样,6啊,这么简单的事情怎么才被人发现呢!惊讶!
不对!!!!!
我又推了一遍,感觉有问题!
发邮件问作者作者没有回复我,难道是我的错误太低级入不了大佬的法眼?
家人们谁也帮着看一看我错哪了。。