联邦学习的各种论文

  • Group Knowledge Transfer: Federated Learning of Large CNNs at the Edge
    • 边缘大型CNN的联合学习
    • 联邦学习(FL)可能会给边缘节点的计算能力带来不必要的负担,尽管由于其隐私和机密性属性,对FL有强烈的实际需求。(联邦学习对与边缘计算能力负担和联邦学习保护隐私的矛盾)为了解决边缘设备资源受限的现实,我们将FL重新表述为一种称为FedGKT的群体知识转移训练算法。FedGKT设计了一种交替最小化方法的变体,用于在边缘节点上训练小型CNN,并通过知识蒸馏定期将其知识传输到大型服务器端CNN。FedGKT 将几个优势整合到一个框架中:减少对边缘计算的需求、降低大型 CNN 的通信带宽和异步训练,同时保持与 FedAvg 相当的模型准确性。我们使用三个不同的数据集(CIFAR-56、CIFAR-110 和 CINIC-10)及其非 IID 变体来训练基于 ResNet-100 和 ResNet-10 设计的 CNN。我们的结果表明,FedGKT可以获得与FedAvg相当甚至略高的精度。更重要的是,FedGKT 使边缘训练变得经济实惠。与使用 FedAvg 的边缘训练相比,FedGKT 在边缘设备上需要的计算能力 (FLOP) 减少了 9 到 17 倍,边缘 CNN 中所需的参数减少了 54 到 105 倍。
  • 草图更新的通信优化方法 在2020做了个遍 都是谷歌发的文章 现在确实进化到利用卷积核的思想进行通信优化
  • 应用类和交叉领域的考虑中?6G&联邦学习、区块链&激励机制
  • Federated Learning for 6G Communications:Challenges, Methods, and Future Directions
    • 摘要——随着5G通信网络的广泛应用在全球范围内部署,工业界和学术界已经开始超越 5G,探索 6G 通信。 一般是相信6G将建立在无处不在的人工智能(AI)实现数据驱动的机器学习(ML)异构和大规模网络中的解决方案。 然而,传统的 ML 技术需要集中的数据收集和由中央服务器处理,这正在成为瓶颈大规模实施在日常生活中由于显着增加隐私问题。 联邦学习,作为一种新兴的具有隐私保护性质的分布式人工智能方法,是对各种无线应用特别有吸引力,尤其是被视为实现无处不在的重要解决方案之一6G中的人工智能。 在本文中,我们首先介绍集成6G 和联邦学习,并提供潜在的联邦学习 6G 的应用程序。 然后我们描述关键技术挑战,相应的联邦学习方法,以及联邦学习未来研究的开放问题6G通信的背景。
  • Record and Reward Federated Learning Contributions with Blockchain
    • 尽管联邦学习允许参与者在不公开的情况下贡献他们的本地数据,但它面临数据安全和准确支付参与者的问题质量数据贡献。 在本文中,我们提出了一个 EOS建立数据安全的区块链设计和工作流程,一种新颖的基于验证错误的度量,我们根据该度量来限定梯度上传付款,并实现我们的一个小例子区块链联邦学习模型分析其性能(激励机制?)
    • 在当今的数据市场中,用户以各种形式生成数据包括社交媒体行为、购买模式和医疗保健记录,然后由公司收集并使用用于出售或用于内部数据分析和机器学习。 因此,我们每个人都在放弃个人没有奖励的资源。 此外,这些组织还完全访问我们的数据,这可能是对隐私取决于收集的数据类型。
    • 通过区块链,保护激励措施和安全隐私
  • Blockchained On-Device Federated Learning
    • 通过利用区块链,这封信提出了一个区块链联合学习 (BlockFL) 架构,其中交换和验证本地学习模型更新。 这无需任何集中式即可实现设备上的机器学习通过使用共识机制训练数据或协调在区块链中。 此外,我们分析了一个端到端的延迟模型的 BlockFL 并通过以下方式表征最佳块生成率考虑通信、计算和共识延迟。
  • 应用能出成果么?但是我看应用的文章都在arXiv 预收录 但是未投什么期刊,然后偏应用的话感觉需要那个应用的数据进行做实验么? 因为像通过联邦学习提高Chrome 或者是谷歌输入法的应用都是谷歌公司发的
    • Federated Learning for Ranking Browser History Suggestions
    • APPLIED FEDERATED LEARNING:IMPROVING GOOGLE KEYBOARD QUERY SUGGESTIONS
    • Pretraining Federated Text Models for Next Word Prediction
    • FEDERATED LEARNING FOR MOBILE KEYBOARD PREDICTION
    • Federated pretraining and fine tuning of BERT using clinical notes frommultiple silos(医疗文本应用 有数据集MIMIC3)
  • Model Pruning Enables Efficient FederatedLearning on Edge Devices
    • 提出了 PruneFL——一种具有自适应和分布式参数修剪,在 FL 期间调整模型大小以减少通信和计算开销并最大限度地减少整体训练时间,同时保持与原始模型相似的精度。
  • Communication Efficient Federated Learning withEnergy Awareness over Wireless Network
    • 基于随机符号的算法
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值