Byzantine-Robust Decentralized Federated Learning

联邦学习(FL)使多个客户端能够在不泄露其私有训练数据的情况下共同训练机器学习模型。在传统的FL中,系统遵循服务器辅助架构(服务器辅助FL),其中训练过程由中央服务器协调。然而,服务器辅助FL框架由于服务器处通信瓶颈和信任依赖问题而面临扩展性差的挑战。为了解决这些问题,提出了去中心化联邦学习(DFL)架构,允许客户端以无服务器和点对点的方式共同训练模型。然而,由于其完全去中心化的特性,DFL极易受到毒化攻击的影响,恶意客户端可以通过向相邻客户端发送精心制作的本地模型来操纵系统。迄今为止,只提出了少量具有拜占庭鲁棒性的DFL方法,其中大多数要么通信效率低下,要么仍然容易受到高级毒化攻击的影响。本文提出了一种名为BALANCE(通过本地相似性在去中心化中实现的拜占庭鲁棒平均)的新算法,用于防御DFL中的毒化攻击。在BALANCE中,每个客户端利用自己的本地模型作为相似性参考来确定接收到的模型是恶意还是良性的。我们在强凸和非凸设置下建立了BALANCE在毒化攻击下的理论收敛保证。此外,BALANCE在毒化攻击下的收敛速率与拜占庭自由设置下的现有方法相匹配。大量实验证明,BALANCE优于现有的DFL方法,并有效地防御毒化攻击。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值