Rethinking Federated Learning with Domain Shift: A Prototype View

在这里插入图片描述

CVPR2023,针对分布式数据来自不同的域时,私有模型在其他域上表现出退化性能(具有域转移)的问题。提出用于域转移下联邦学习的联邦原型学习(FPL)。核心思想是构建集群原型和无偏原型,提供富有成效的领域知识和公平的收敛目标。将样本嵌入拉近到属于相同语义的集群原型,而不是来自不同类的集群原型。引入一致性正则化来将本地实例与相应的无偏原型对齐。

论文:openaccess
code: 作者开源

贡献

• 发现现有方法的固有局限性在于全局正则化信号不足以描绘参与者之间的不同领域知识,并且偏向主要领域。
• 提出了一种简单而有效的策略来学习具有领域转移的联邦学习中可良好推广的全局模型。受原型学习成功的启发,我们引入了集群原型来提供丰富的领域知识,并进一步基于集群原型的平均值构建无偏原型,以进一步提供公平稳定的客观信号。
• 我们对 Digits 和 Office Caltech 任务进行了广泛的实验。伴随着一系列消融实验,结果验证了 FPL 的有效性和每个模块的不可或缺性。

额,感觉官方说法有点奇怪。总结下就是,1)引入了集群原型对比学习(CPCL)。CPCL自适应地强制高维特征与来自同一类的集群原型更相似,而不是具有不同语义的其他原型。鼓励实例特征接近相同语义中的代表性原型,并将其与其他类原型区分开来,从而融合了不同的领域知识并保持清晰的决策边界。2)提出无偏原型一致正则化(UPCR),对集群原型进行平均以获得无偏原型。本地实例需要最小化特征级距离与相应的无偏原型。因此,本地模型不会偏向主导领域,并在劣势领域表现出稳定的性能

算法流程

文章主要分为两部分,聚类原型和无边界原型,分别给出了对应的定义和学习方式。

FL中原型的定义

S k S^k Sk 表示用类别为 k k k 的样本集, c m k c^k_m cmk 表示第 m m m 个参与者 k k k 类样本的原型。原型是各自语义信息的典型ÿ

  • 12
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值