唯一晴天
码龄6年
关注
提问 私信
  • 博客:4,700
    4,700
    总访问量
  • 9
    原创
  • 950,244
    排名
  • 5
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:江西省
  • 加入CSDN时间: 2019-05-07
博客简介:

qq_45027419的博客

查看详细资料
个人成就
  • 获得8次点赞
  • 内容获得7次评论
  • 获得20次收藏
创作历程
  • 6篇
    2023年
  • 3篇
    2022年
成就勋章
创作活动更多

AI大模型如何赋能电商行业,引领变革?

如何使用AI技术实现购物推荐、会员分类、商品定价等方面的创新应用?如何运用AI技术提高电商平台的销售效率和用户体验呢?欢迎分享您的看法

175人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

Knowledge distillation comprehensive survey

利用教师-学生体系结构的知识提炼的自然特性,知识提炼被用作解决对抗性攻击或深度模型的扰动的有效策略(Papernot等人,2016年;罗斯和多希-贝莱斯,2018年;Goldblum等人,2020年;Gil等人,2019)以及具体而言,敌对样本的扰动可以通过蒸馏由教师网络的稳健输出克服(Ross和Doshi-Velez,2018;Papernot等人,2016年)。当然,知识提炼还有其他特别有趣的应用,例如神经体系结构搜索(Macko等,2019年;
原创
发布博客 2023.03.28 ·
323 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏

Communication-Efficient On-Device Machine Learning- Federated Distillation and Augmentation under ..

本文思想是通过(FAug) 增强数据使得每一个客户端的数据达到独立同分布,再通过(FD)来减少通信成本。由非独立同分布数据造成降低的精确度可以通过交换数据样本来部分恢复。联邦增强(FAUG),一种使用生成对抗网络(GAN)的数据增强方案,。训练后的GAN授权每个设备本地再现所有设备的数据样本,从而使训练数据集成为IID。
原创
发布博客 2023.03.27 ·
529 阅读 ·
1 点赞 ·
0 评论 ·
3 收藏

Preservation of the Global Knowledge by Not-TrueSelf Knowledge Distillation in Federated Learning

这里,Λ >= 1 测量局部函数的梯度方向相对于全局函数 f 的对齐。注意,随着局部函数梯度多个的方向变得相似,Λ 变小。例如,如果的向量大小(范数)是固定的,当多个的方向相同时得到最小的Λ。
原创
发布博客 2023.03.08 ·
1043 阅读 ·
4 点赞 ·
3 评论 ·
8 收藏

FedDTG:Federated Data-Free Knowledge Distillation via Three-PlayerGenerative Adversarial Networks

FedDTG中客户端之间的信息传递主要来自两个部分:第一部分是全局生成器G,包括在局部对抗训练阶段和联邦蒸馏阶段对生成的图像进行正确分类;另一部分是从服务器接收到的其他客户端的软标签的平均值,即联邦蒸馏阶段的相互蒸馏。
原创
发布博客 2023.03.02 ·
414 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

Data-Free Knowledge Distillation for Heterogeneous Federated Learning

在联邦学习中使用知识蒸馏,这种方法依赖于代理数据集,因此除非满足这样的先决条件,否则是不切实际的。此外,仅从用户模型的预测规则导出的生成模型FEDGEN收益:1.它从用户那里提取知识,而这些知识在模型平均后会得到缓解,而不依赖于任何外部数据。2.我们的方法使用所提取的知识直接调节局部模型更新。3.我们表明,这样的知识强加了一个归纳偏向局部模型,导致在非iid数据分布下更好的泛化性能。
原创
发布博客 2023.03.02 ·
1343 阅读 ·
0 点赞 ·
3 评论 ·
4 收藏

Federated Unlearning with Knowledge Distillation 概述

提出了一种新的联邦学习方法,通过从模型中,并利用知识蒸馏方法来,而不需要使用来自客户端的任何数据。该方法对神经网络的类型没有任何限制,也不依赖于用户的参与。
原创
发布博客 2023.02.16 ·
717 阅读 ·
2 点赞 ·
1 评论 ·
4 收藏

SQL-LIB Cookie注入

SQL注入,COOKIE注入
原创
发布博客 2022.11.08 ·
65 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

SQL-LIB Less11 POST注入+符号扰断

SQL注入,POST,符号扰断
原创
发布博客 2022.11.08 ·
129 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

SQL-LIB Less-6 符号干扰

SQL注入
原创
发布博客 2022.11.08 ·
105 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏