![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
算法
文章平均质量分 92
De-Alf
联邦学习,人工智能,网络通信,中科大本硕,博士?
展开
-
Personalized Federated Learning: A Meta-Learning Approach 个性化联邦学习PerFedAvg开山鼻祖之作
简单回顾MAML。给定一组从底层分布中提取的任务,在MAML中,与传统的监督学习设置相反,目标不是找到一个在预期的所有任务上都表现良好的模型。相反,在MAML中,假设在新任务到达后,有限的计算预算来更新模型,在这个新设置中,寻找一个初始化,它在相对于这个新任务更新后表现良好,可能是通过一个或几个梯度下降步骤。这个公式的优势在于,保持FL的优势还捕获了用户之间的差异,无论是现有用户还是新用户都可以将这个新问题的解决方案作为初始点,并根据自己的数据稍微更新它。原创 2024-04-19 15:19:25 · 418 阅读 · 0 评论 -
Personalized Federated Learning on Non-IID Data via Group-Based Meta-Learning 编解码器分组聚类联邦元学习G-FML
FL中,N客户端训练一个共享模型theta,各有各的数据集D,损失函数l,即最小化所有客户端上的经验损失函数。问题是前提要求iid数据分布,若为non iid则不好。iid: independent identical distribution,独立同分布。理解成所有客户端上的样本服从统一的分布。non iid导致global model无法在所有客户端上进行最小化经验损失。因此采用分组元学习的方法。问题定义后的全局目标如下。分了K组,共N客户端。这篇文章也是一个比较常规的工作。原创 2024-04-18 19:28:44 · 990 阅读 · 0 评论 -
【解读】通过客户端采样实现高效通信效率联邦学习 Communication-Efficient Federated Learning via Optimal Client Sampling
汇总本地模型需要在客户端和中央服务器之间频繁通信大量信息。本文提出了一种新颖、简单和有效的方法,在通信受限制的情况下基于从具有信息更新的客户端收集模型并估计未传递的本地更新来更新中央模型。特别地,通过奥恩斯坦-乌伦贝克过程对模型权重的进展进行建模,我们可以推导出一种选择具有显着权重更新的客户端子集的最佳采样策略。中央服务器仅从所选客户端收集更新的本地模型,并将其与未被选中进行通信的客户端的估计模型更新相结合。原创 2023-06-15 19:11:44 · 657 阅读 · 0 评论 -
算法基础实验:Kruskal和Johnson
算法基础实验:Kruskal和Johnson实验报告文章目录算法基础实验:Kruskal和Johnson1. 实验内容2. 实验设备环境3. 实验方法4. 实验步骤5. 结果分析1. 实验内容实现求最小生成树的Kruskal算法。无向图的顶点数N的取值分别为: 8、 64、128、512,对每一顶点随机生成1~⌊N/2⌋条边,随机生成边的权重, 统计算法所需运行时间 ,画出时间曲线,分析程序性能。实现求所有点对最短路径的Johnson算法。有向图的顶点数 N 的取值分别为: 27、81、243、原创 2021-01-08 22:10:45 · 289 阅读 · 0 评论