端边云协同
文章平均质量分 65
MCRG
中科院计算所硕士在读 个人主页:wuzhiyuan2000.github.io 欢迎交流
展开
-
FedCache 2.0引领联邦边缘学习性能与通信效率革新
FedCache 2.0通过引入“知识缓存”(knowledge cache)和“数据蒸馏”技术,突破了第一代FedCache架构的训练瓶颈,显著提升了模型的训练效率和准确性。在这一架构下,服务器不仅存储原始数据的精简、脱敏版本,即“蒸馏数据”,而且通过精确控制这些数据的组织、存储与分发,确保每个设备都能在通信带宽限制下接收到最适合自己的训练数据。通过在五个不同的数据集上进行广泛的实验,涵盖图像识别、音频理解和移动传感器数据挖掘任务,FedCache 2.0在所有考虑的设置中都显著优于现有的最先进方法。原创 2024-06-25 22:43:17 · 1055 阅读 · 0 评论 -
论文解读-FedICT: Federated Multi-task Distillation for Multi-access Edge Computing
提出了一种“联邦多任务蒸馏”方法,在兼顾边缘计算场景对于模型异构与低通信开销需求的同时提升客户端在多任务场景的性能。原创 2019-08-31 07:53:53 · 5248 阅读 · 0 评论 -
FedCache:A Knowledge Cache-driven Federated Learning Architecture for Personalized Edge Intelligence
论文解读-FedCache: A Knowledge Cache-driven Federated Learning Architecture for Personalized Edge Intelligence原创 2024-02-03 21:39:31 · 1714 阅读 · 0 评论 -
论文解读-Survey of Knowledge Distillation in Federated Edge Learning
具体地,通过引导疏离的设备端和服务器端的双向蒸馏训练过程,该方法实现了在资源受限的MEC环境下,快速高效地训练出对本地任务拟合较好的定制化模型。但是由于用户的行为模式与服务需求的多样,不同设备上的数据分布与模型的任务需求往往存在显著差异,叠加MEC场景设备硬件配置高度差异化、通信受限等多重限制,给部署与协同训练机器学习模型带来了挑战。在图像识别与运动状态检测上的实验表明,相比现有方法,该联邦多任务蒸馏在保证收敛速度与通信效率的同时,显著提升了模型在本地任务上的表现。原创 2023-12-08 12:47:48 · 816 阅读 · 0 评论