010 Large-Scale Kernel Method for Vertical Federated Learning(垂直联邦学习大规模核方法)

面向垂直联邦学习的大规模核方法
方法: 垂直联邦学习核学习方法(VFKL) ——>①利用 随机特征技术 逼近核函数②利用 特殊设计的 在数据和模型中都不泄露隐私的 双随机梯度 联合更新预测函数
目的:解决  随着隐私保护需求的不断增长,传统的机器学习方法很难对这种垂直分割的数据进行数据挖掘 的问题
结论: VFKL可以提供 次线性收敛速度(接近O(1/t)) ,并在一般半诚实假设下保证数据安全性。
数据挖掘中,多个数据持有者通常维护公共数据的不同特征部分,称为垂直分区数据。——>随着隐私保护需求的不断增长,传统的机器学习方法很难对这种垂直分割的数据进行数据挖掘。——> 垂直联邦学习算法:①线性回归②k-means聚类③逻辑回归④随机森林⑤XGBoost⑥支持向量机(SVM)⑦合作统计分析⑧关联规则挖掘⑨垂直分区数据的隐私保护梯度下降算法⑩高维线性分类的特征分布SVRG算法——>但这些都是基于 学习模型是隐式线性可分的假设 进行训练的——>非线性模型可以达到比线性模型更好的性能——>核方法是非线性学习方法的重要分支,不满足隐式线性可分假设——> PP-SVMV(垂直分区数据的隐私保护SVM分类) 是惟一的来学习垂直分区数据的隐私保护非线性核函数方法——>需要收集不同工人的局部核矩阵,然后将其求和为全局核矩阵,导致了较高的通信成本。——> 提出了一种垂直联邦学习核学习方法(VFKL)来训练垂直分区数据——>①利用 随机特征技术 逼近核函数②利用 特殊设计的 在数据和模型中都不泄露隐私的 双随机梯度 联合更新预测函数——>VFKL可以提供 次线性收敛速度(接近O(1/t)) ,并在一般半诚实假设下保证数据安全性。

①双随机核方法
随机特征近似技术:拓展核方法的强大技术,利用了 连续和移位不变的正核定之间的对偶性 和 随机过程。
双随机梯度(DSG)算法:是一种可拓展且高效的核函数方法,使用双随机梯度w.r.t.样本和随机特征来更新核函数
——>(关键:随机特征的计算是线性可分的——>在本地工作者中计算垂直分块数据的分块随机特征,当需要整个核函数来计算全局函数梯度时,通过对局部随机特征求和,可以很容易的从本地工作者中重构出整个随机特征)将DSG拓展到垂直分区的数据场景中,提出了VFKL方法。
②垂直联邦核学习
数据隐私
模型隐私
树状结构的通信
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值