联邦学习实战---读书笔记

概述

  1. 图像处理:卷积网络
  2. 自然语言处理:BERT
  3. 推荐系统: 科技或互联网公司分析历史数据

燃料:互联网数据中心预测互联网数据2021年达到50ZB,2025年达到175ZB

燃料——>资产(提升产品质量、企业不良贷款)——>大数据交易

数据难共享—>依赖数据的人工智能难发展——>数据作为深度算法的燃料——>提供对比基准

实际数据规模小、缺重要信息——>高质量数据太少

联邦学习

在模型训练过程中,模型的相关信息(模型参数、模型结构、参数梯度)在各参与方之间交换(明文、数据加密、添加噪声)

联邦学习在分布式数据源上构建机器学习模型,由于数据分布不平衡,联邦学习在开始训练时,会剔除掉异常的硬件设备,效果比直接集中训练效果好。

中心化差分隐私:依赖可信的第三方收集数据(相邻数据集输出的相似性)
本地化差分隐私(LDP):数据隐私化的工作转移到每个参与方(两条记录的输出相似性)

中心化差分隐私分为串行组合和并行组合
串行组合:n个算法
并行组合:n个算法,数据集分为n个集合。

联邦学习实例(横向、cifar-10、ResNet-18):
配置参数:

  1. 训练的客户端数量:每一轮迭代选取部分客户端的数量
  2. 全局迭代次数:服务端和客户端的通信次数
  3. 迭代次数:客户端在本地模型训练的迭代次数
  4. 本地训练相关算法的配置:本地训练的参数配置,学习率、训练样本大小、优化算法
  5. 模型信息:ResNet-18
  6. 数据信息:切分数据集

服务端:

  1. 构造函数: 配置信息拷贝、获取模型
  2. 聚合函数
  3. 评估函数

客户端:
1.定义构造函数:配置信息拷贝到客户端、获取模型。配置本地数据集
2.本地训练函数

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值