论文推荐
“SFFAI142期来自美国西北大学的王礼旭同学推荐的文章主要关注于基础研究的动态联邦学习领域,你可以认真阅读讲者推荐的论文,来与讲者及同行线上交流哦。”
关注文章公众号
回复"SFFAI142"获取本主题精选论文
01
Federated Continual Learning with Weighted Inter-client Transfer (ICML 2021)
推荐理由:
该工作提出了一种联邦持续学习,作者假设联邦学习框架中所有用户都按照一定的任务顺序来学习。在特定的时间点,对每个用户而言,其需要学习的任务可能已经被其他用户所学习过,所以可以有效地从其他用户所学到的知识中迁移过来,当然对于不相关的知识,需要消除其不利影响。
为解决该问题,该工作作者提出了一种模型参数解耦算法,可以对于每个用户在每个任务中学到的知识,或者说模型参数解耦成task-general和task-specific两部分,然后在中央服务器建立一个task-specific参数的数据库。这样在后续的训练中,不同用户就可以以自己特定的attention mask去这个数据库中挑对自己本地训练有利的参数。
根据该工作实验的设定,每个用户的task sequence是随机确定的,这一点不符合我们所报告工作中的联邦类别增量学习问题,在他们的问题中,旧任务的数据有可能会在不远的未来某个时间重新出现,这样旧任务的灾难性遗忘现象就得到了缓解,而在联邦类别增量学习问题中,旧任务的数据在未来的时间最多只会零星出现,无法缓解灾难性遗忘现象。
02
Addressing Class Imbalance in Federated Learning (AAAI 2021)
推荐理由:
该工作解决了经典联邦学习中的类别不平衡问题,因为类别增量学习其实可以看成一种极端情况下的类别不平衡问题,所以该工作与