《联邦学习》——个人笔记(三)

本文深入探讨了分布式机器学习的两大类别,包括面向扩展性和隐私保护的DML,阐述了数据并行、模型并行等并行策略,并介绍了面向隐私保护的DML方法,如差分隐私和密码学技术在决策树、逻辑回归和深度学习中的应用。重点讨论了联邦学习中的梯度下降方法和隐私保护策略。
摘要由CSDN通过智能技术生成

第三章分布式机器学习

3.1分布式机器学习介绍

  • 3.1.1分布式机器学习的定义
    分布式机器学习(Distributed Machine Learning,DML),是指利用多个计算节点进行机器学习或者深度学习的算法和系统,旨在提高性能、保护隐私,并可扩大至更大规模的训练和更大的模型。

    DML可以分为两类:面向扩展性的DML和面向隐私保护的DML。
    面向扩展性的DML是指用来解决不断增长的扩展性和计算需求问题的机器学习系统。当内存限制和算法复杂度是主要障碍时,面向扩展性的DML方法便为大规模ML提供了可行的解决方法。出了克服训练数据的集中存储需求,DML系统还能够使用更弹性化和更廉价的计算资源。

    面向隐私保护的DML的主要目的是保护用户隐私和数据安全。在面向隐私保护的DML系统中,有多个参与方且每一方都拥有一些训练数据。因此需要使用DML技术来利用每个参与方的训练数据,从而协同地训练机器学习模型。

  • 3.1.2分布式机器学习平台
    Apache Spark MLlib

3.2面向扩展性的DML

  • 3.2.1大规模机器学习
    传统ML方法在处理大规模数据集和 ML模型时所面临的主要挑战:
    1.内存短缺 传统ML方法只在一块独立内存中对训练样本进行所有的操作。因此,如果训练样本的规模超过了单块内存容量,就可能导致训练模型不收敛或者性能低下
    2.不合理的训练时间 大规模训练样本时,在训练处理中耗费的时间可能过长。

  • 3.2.2面向扩展性的DML方法
    很多研究工作致力于提升DML的能力上限,以减少处理大规模的ML和DL模型所需的训练时间。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值