A Look Into Training Large Language Models on Next Generation Datacenters

本文是LLM系列文章,针对《A Look Into Training Large Language Models on Next Generation Datacenters》的翻译。

摘要

计算机网络研究还值得吗?鉴于超大规模网络在已部署的大型网络中占据主导地位,该领域存在哪些相关问题?我们采取非常规的方法来寻找相关的研究方向,从微软为机器学习建造一个 1000 亿美元的数据中心的计划开始。我们的目标是了解可以在这样的数据中心中训练哪些模型,以及在此过程中可能遇到的高级挑战。我们首先检查目标数据中心的冷却和电力要求所带来的限制,发现在单个位置构建是不可行的。我们使用 LM 缩放定律来确定我们可以训练 50T 或 100T 参数的模型。最后,我们研究分布式训练如何适用于这些模型以及网络要求是什么。我们的结论是,构建数据中心并训练此类模型在技术上是可行的,但这需要一种新颖的基于 NIC 的多路径传输以及整个训练堆栈的重新设计,为我们社区在不久的将来概述了研究议程。

1 引言

2 基础设施、电力和冷却

3 模型缩放

4 网络通讯

5 网络拓扑和传输协议

6 研究问题

需要取得重大突破

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值