大模型学习笔记08——分布式训练

大模型学习笔记08——分布式训练

模型规模的扩大,对硬件(算力、内存)的发展提出要求。然而,因为内存墙的存在,单一设备的算力及容量,受限于物理定律,持续提高芯片的集成越来越困难,难以跟上模型扩大的需求。

为了解决算力增速不足的问题,人们考虑用多节点集群进行分布式训练,以提升算力,分布式训练势在必行

1、常见的并行策略

  1. 数据并行:将数据切分为多份分发到每个设备上,每个设备上拥有完整的模型参数,将所有设备的结果拼接则为完整的输出
  2. 模型并行:每个设备上的数据是完整并一致的,每个设备仅有模型的一部分
  3. 流水线并行:将网络切为多个阶段并分发到不同的设备上,让完整的数据按顺序途径所有的设备完成计算
  4. 混合并行:流水线并行、数据并行与模型并行都有使用

学习内容来源:添加链接描述

  • 7
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值