开源公告|分布式深度学习训练工具PatrickStar正式开源

50afb212d6c0d7f8df3995b733dbd44e.gif

PatrickStar是一款分布式深度学习训练工具,它的设计目标是支持以GPT、Bert为代表的超大预训练模型训练。在性能表现上远超目前业界DeepSpeed效果。它可以显著降低PTM的使用成本,使我们在更少的GPU硬件上训练之前用其他框架OOM的模型。比如,在8x V100,240GB内存的计算节点上,派大星成功训练了120亿参数模型,单GPU的计算效率仍高达在47 Tflops。

f941bce42fe3835e1f819d665050fd51.png

PatrickStar 通过使用 CPU-GPU 异构内存空间来存储模型数据,从而降低对GPU的显存需求。不同于现有的异构训练方案在 CPU 和 GPU 之间静态划分模型数据,PatrickStar 以Chunk(块)的形式更灵活地管理模型数据,这些Chunk动态分布在异构内存空间中,在训练过程中高效地移动,来满足当前计算的需求,从而使模型尺寸突破GPU的显存大小限制。PatrickStar和业界其他优秀数据并行方案兼容,比如,PatrickStar 使用零冗余优化器方式并行扩展到多个 GPU,并实现了理论最低的通信带宽需求和更高效的带宽利用率。派大星与模型并行,流水线并行兼容。

502608d62a4c320b8775c76382e50648.png

派大星适用场景

适用ADAM优化器的超大模型训练过程,例如BERT,GPT2,GPT3等NLP预训练模型,超大CNN等CV模型。

57b47163766f6db484912c7dfd749248.png

功能介绍

通过在PyTorch基础上,包装模型和优化器的接口来调用后台优化逻辑,可以使用仅仅几行代码获得DNN训练过程的端到端加速。

a3ef8cd3cdd4f67bf285e77c2cac8e85.png

使用示例

6b13ff6edcdfd64cea933736a6271cf3.png

034279004b87eabaf1742ba159b68b0e.png

未来计划

1. 吸引更多的开发者完善派大星的系统实现。将派大星与目前流行的模型并行、流水线并行结合,完成超大规模训练。

2. 根据用户反馈,增加派大星的易用性。

6f48675c3be1a012969f1f176a97a172.png

PatrickStar开源地址

https://github.com/Tencent/PatrickStar

请给项目 一个 Star !

欢迎提出你的 issue 和 PR!

 国内镜像地址:

https://git.code.tencent.com/Tencent_Open_Source

(登录后才能访问公开项目)

腾讯工蜂源码系统为开源开发者提供完整、最新的腾讯开源项目国内镜像

关注腾讯开源公众号

获取更多最新腾讯官方开源信息!

add814afb33868c377a5f3e5a2aff42a.png

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值