wyk403
码龄5年
求更新 关注
提问 私信
  • 博客:9,748
    9,748
    总访问量
  • 6
    原创
  • 101
    粉丝
  • 61
    关注
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:广东省
加入CSDN时间: 2020-02-11
博客简介:

wyk403的博客

查看详细资料
个人成就
  • 获得132次点赞
  • 内容获得14次评论
  • 获得172次收藏
  • 博客总排名827,077名
创作历程
  • 6篇
    2023年
成就勋章
TA的专栏
  • 联邦学习
    5篇

TA关注的专栏 1

TA关注的收藏夹 0

TA关注的社区 3

TA参与的活动 0

兴趣领域 设置
  • Python
    pythonnumpyconda
  • 后端
    spring boot后端
  • 人工智能
    深度学习pytorch
创作活动更多

新星杯·14天创作挑战营·第13期

这是一个以写作博客为目的的创作活动,旨在鼓励大学生博主们挖掘自己的创作潜能,展现自己的写作才华。如果你是一位热爱写作的、想要展现自己创作才华的小伙伴,那么,快来参加吧!我们一起发掘写作的魅力,书写出属于我们的故事。我们诚挚邀请你们参加为期14天的创作挑战赛!注: 1、参赛者可以进入活动群进行交流、互相鼓励与支持(开卷),虚竹哥会分享创作心得和涨粉心得,答疑及活动群请见:https://bbs.csdn.net/topics/619781944 【进活动群,得奖概率会更大,因为有辅导】 2、文章质量分查询:https://www.csdn.net/qc

89人参与 去参加
  • 最近
  • 文章
  • 专栏
  • 代码仓
  • 资源
  • 收藏
  • 关注/订阅/互动
更多
  • 最近

  • 文章

  • 专栏

  • 代码仓

  • 资源

  • 收藏

  • 关注/订阅/互动

  • 社区

  • 帖子

  • 问答

  • 课程

  • 视频

搜索 取消

(FEDHKD)THE BEST OF BOTH WORLDS: ACCURATE GLOBAL AND PERSONALIZED MODELS

FedHKD的独特之处:与其他基于KD的pFL方法不同,FedHKD不依赖于公共数据集,也不在服务器上部署生成模型。服务器聚合这些超知识信息,并广播给客户端以支持其本地训练。
原创
博文更新于 2023.12.02 ·
1634 阅读 ·
30 点赞 ·
1 评论 ·
22 收藏

Learn from Others and Be Yourself in Heterogeneous Federated Learning论文阅读

作者受**自监督学习**的启发,**利用未标注的公共数据进行联合交叉相关学习,通过最大化相同类别在不同域的输出相似性和最小化输出冗余性,从而使模型学习到类别不变性并增强不同类别间的区分度。****对于灾难性遗忘问题,作者提出了一种知识蒸馏方法,通过在本地更新阶段持续学习跨域和域内知识,以避免遗忘其他参与者的信息。**具体来说,作者提出在本地更新阶段,利用之前轮次中学到的跨域知识的内域(本地)模型的知识,以及使用最初预训练的本地模型(未学习其他参与者知识)作为约束,来平衡来自他人和自身的知识。
原创
博文更新于 2023.12.01 ·
1457 阅读 ·
31 点赞 ·
1 评论 ·
23 收藏

Communication-Efficient and Model-Heterogeneous Personalized FL via Clustered Knowledge论文阅读

这篇论文提出了一个名为 COMET 的个性化联合学习(PFL)框架,专注于在边缘设备(如物联网设备和智能手机)上进行高效的模型训练。这些边缘设备通常具有不同的系统能力和有限的通信带宽。COMET 框架的独特之处在于,它允许不同的客户端使用自选的异构模型进行训练,而不是直接交换模型参数。这通过一种称为集群共蒸馏(clustered codistillation)的技术实现,其中客户端通过知识蒸馏将自己的知识传递给数据分布相似的其他客户端。
原创
博文更新于 2023.12.01 ·
952 阅读 ·
17 点赞 ·
1 评论 ·
19 收藏

2023暨南大学848(计算机技术)经验贴(专业课第一)

2023暨南大学848(计算机技术)经验贴(专业课第一,复试逆袭三十名)
原创
博文更新于 2023.11.29 ·
3190 阅读 ·
9 点赞 ·
11 评论 ·
63 收藏

DENSE: Data-Free One-Shot Federated Learning论文笔记

- 采用两阶段框架:数据生成阶段和模型蒸馏阶段。 **数据生成阶段**:使用客户端上传的本地模型集合训练生成器(训练了一个同时考虑相似性、稳定性和可转移性的生成器),生成合成数据。 **模型蒸馏阶段**:将集合模型的知识蒸馏到全局模型中。 - 无需额外信息交换:只需在客户端和服务器之间传输模型参数。- 无需辅助数据集:不需要额外的训练数据。- 考虑模型异质性:适应不同客户端拥有不同的模型架构。
原创
博文更新于 2023.11.29 ·
1234 阅读 ·
28 点赞 ·
1 评论 ·
26 收藏

(FEDCVAE-KD)DATA-FREE ONE-SHOT FEDERATED LEARNING UNDER VERY HIGH STATISTICAL HETEROGENEITY论文笔记

一次性FL方法在高统计异质性的情况下往往会退化,无法提高管道的安全性,或者需要一个辅助的公共数据集。为了解决这些局限性,我们提出了两种新的无数据的一次性FL方法:FEDCVAE-ENS和它的扩展FEDCVAEKD。这两种方法都使用条件变分自动编码器(CVAE)重构局部学习任务,以解决高统计异质性。
原创
博文更新于 2023.11.29 ·
1281 阅读 ·
17 点赞 ·
1 评论 ·
18 收藏