埃隆·马斯克超级计算新里程碑:Cortex AI超级集群震撼亮相!

本周,科技界的超级明星埃隆·马斯克再次引领潮流,他在超级计算领域的征途上迈出了令人瞩目的步伐。通过一段视频,他首次公开了最新命名的“Cortex”人工智能超级集群,这一壮举不仅标志着特斯拉“Giga Texas”工厂的又一次重大扩张,也预示着AI算力新时代的到来。

Cortex超级集群,这个坐落于特斯拉超级工厂的庞然大物,计划容纳惊人的70,000台AI服务器。启动初期,它就需要消耗高达130兆瓦的电力与冷却资源,而预计到2026年,这一数字将飙升至500兆瓦,足以媲美一个小型发电厂的规模。视频中,一排排密集排列的服务器机架震撼人心,它们以每行16个的壮观阵列延伸,非GPU机架作为间隔,井然有序。每个机架承载着8台服务器,短短20秒的视频内,镜头掠过了约16-20行机架,初步估算已部署的GPU服务器数量便接近2,000台,而这仅仅是全面部署规模的冰山一角,不足3%。

马斯克在特斯拉7月的财报电话会上透露,Cortex将是特斯拉迄今为止最强大的训练集群,融合了“50,000个Nvidia H100s以及20,000个特斯拉自研硬件”。这一配置较他此前在推特上的预告有所调整,原先预计的50,000个特斯拉Dojo AI硬件单元数量有所减少,预示着Nvidia GPU将在初期扮演核心角色。

Cortex的目标直指“解决现实世界的AI问题”,正如马斯克在社交媒体上所言,它将肩负起训练特斯拉全自动驾驶(FSD)系统的重任,为特斯拉汽车及未来“Cybertaxi”产品赋能。同时,它还将助力Optimus机器人的AI训练,这款预计在2025年小规模生产的自主仿人机器人,将成为特斯拉制造流程中的智能新成员。

尤为引人注目的是,Cortex的庞大风扇系统正紧锣密鼓地建设中,这些巨型风扇是冷却整个超级集群的关键。马斯克早在6月便展示了这一冷却解决方案,它依托于Supermicro提供的液体冷却技术,为未来的高负荷运行保驾护航。这一系统的规模之大,令人不禁将其与小型发电厂相提并论。

Cortex的亮相,进一步丰富了马斯克的超级计算机家族。此前,他已成功部署了由xAI运营的Memphis超级集群,该集群拥有100,000个Nvidia H100s,并通过RDMA网络实现高效互联,同样采用了Supermicro的冷却技术。此外,马斯克还计划在纽约州布法罗投资5亿美元建设Dojo超级计算机,持续加码AI算力建设。

值得一提的是,Memphis超级集群原计划升级至300,000个B200 GPU,但受Blackwell设计缺陷影响,这一升级计划被迫推迟。作为Nvidia AI GPU的最大买家之一,马斯克正践行着“规模经济”的理念,试图通过大批量采购降低成本,推动AI技术的普及与应用。

如今,随着Cortex的加入,马斯克的超级计算机版图愈发壮观。未来,这些超级集群将如何改变我们的生活,助力AI技术的飞跃,让我们拭目以待!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值