Fair Resource Allocation In Federated Learning

本文探讨了联邦学习中的公平性问题,提出了q-FFL(q-Fair Federated Learning)框架,旨在减少设备间的性能差异。通过优化目标q-FedAvG,在保持整体性能的同时,显著降低了设备精度的方差,实现更公平的资源分配。论文还研究了调整参数q以适应不同公平水平,并讨论了与经典联邦学习目标的关系以及如何通过Lipschitz常数进行优化。
摘要由CSDN通过智能技术生成
background

单纯的最小化网络中的总损失可能会不成比例地对某些设备有利或不利(例如,平均精度可能很高,但是某些单个设备的精度很低的情况)
q-Fair 联邦学习(q-FFL):新的优化目标(实现更公平的精度分配,更系统的分配模型的性能)
最小化了由q参数化的总加权损耗,使具有更高损耗的设备有更高的相对权重(推测设备的性能)
该论文q-FFL最终实现了:

  • 在公平性方面,保持相同的总体平均性能的同时,将设备的精度差异平均减少45%(即:解决了我付出了这么多,你也付出了这么多,最后为什么我跟你的工资差异那么大的问题)
  • 在效率方面:更快

q-FedAvG: 方法

motivation:权衡网络的总性能和公平性
即:你是要更精确呢,还是更公平呢,怎么权衡?—在设备间实现更均匀的精度分布,显著减少方差,同时保证平均精度


在无线通信等领域,资源公平分配被定义为在许多用户之间分配稀缺的共享资源(例如通信时间或功率等),那我作为一个服务提供商,希望保证总体吞吐量的同时保证所有用户的服务质量


机器学习的公平性

定义为:某些特定属性的保护

联邦学习的公平性

论文中定义为:联邦学习中跨设备的准确性分布的一致性
并且,论文中的方法可以实现根据期望的公共度来调整
论文中还考虑了联邦优化的问题(减少通讯和容忍异构性等)

联邦学习中的公平性标准

如果一个模型 w w w w ∗ w^* w在m个设备上的性能分配{ a 1 a_1 a1 a m a_m am}更加均匀,那么 w w w就比

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值