市场近日传出NVIDIA(英伟达)取消B100并转为B200A,据TrendForce集邦咨询了解,NVIDIA仍计划在2024年下半年推出B100及B200,供应CSPs(云端服务业者)客户,并另外规划降规版B200A给其他企业型客户,瞄准边缘AI(人工智能)应用。
TrendForce集邦咨询表示,受CoWoS-L封装产能吃紧影响,NVIDIA会将B100及B200产能提供给需求较大的CSPs客户,并规划于2024年第三季后陆续供货。在CoWoS-L良率和量产尚待整备的情况下,NVIDIA同步规划降规版B200A给其他企业客户,并转为采用CoWoS-S封装技术。
这一技术选择源于英伟达对市场需求和产能的精准判断。在CoWoS-L封装技术良率和量产尚待整备的情况下,英伟达选择了更为成熟的CoWoS-S封装技术,以确保产品的稳定供应。CoWoS-S封装技术在中介层方案上进行了优化,为B200A提供了良好的性能和稳定性基础。
B200A的内存带宽达到8TB/s,与H200相比,B200A的每个Die有4个24GB的HBM3e stack,合计一个Cuda GPU有192GB内存 。此外,B200A的热设计功耗(TDP)预计将比B200低,这使得搭配该芯片的GB Rack可以采用气冷散热方案,预计2025年受设计难度高且复杂的液冷散热影响较小,从而避免出货延迟等问题。
B200A搭载了4颗HBM3e(第五代高带宽内存),采用12层堆叠(12hi),总容量达到144GB。预期OEMs(原始设备制造商)应会于2025年上半年正式拿到B200A芯片,这个供货时间点能让延迟至今年第三季才能放量的H200有更多被市场采用的机会,避免产品线相隔太近而产生冲突。
根据TrendForce集邦咨询的最新供应链调查结果,NVIDIA在2024年的高端GPU市场策略将显著侧重于Hopper平台产品,其中H100、H200等型号将主要供应北美地区的云服务提供商(CSPs)和原始设备制造商(OEMs),而针对中国市场,NVIDIA则计划以搭载H20的AI服务器作为主打产品。值得注意的是,H200预计将在2024年第三季度开始大幅增加出货量,成为NVIDIA的主流产品之一,并持续影响至2025年。
与此同时,Blackwell系列GPU在2024年将处于初期出货阶段,但预计至2025年,该系列将跃升为主要出货力量,特别是B200及GB200 Rack两款高性能产品,将有效满足CSPs和OEMs对高端AI服务器的迫切需求。相比之下,B100作为过渡型产品,以其较低的能耗为特点,在NVIDIA完成既有CSPs订单后将逐渐被B200及GB200 Rack所取代。
TrendForce集邦咨询进一步预测,到2025年,Blackwell平台将占据NVIDIA高端GPU市场份额的超过80%,并推动NVIDIA高端GPU系列的年度出货量增长率飙升至55%,显示出该公司在AI及高性能计算领域的强劲增长势头。
赋创(EMPOWERX)作为高性能计算领域的先锋,一直致力于推动技术创新,我们会及时关注最前沿的科技动态,为客户提供高效、可靠的计算解决方案。
如果您有服务器相关的问题或需要进一步了解更详细的信息,请随时私信我们【4006-997-916 / 0755-86936235】。