为应对美国对华半导体出口管制政策,NVIDIA持续推出专为中国市场设计的“特供版”GPU,涵盖消费级显卡与服务器级AI芯片。这些产品通过精准的规格缩水以满足美国政策限制,同时试图保持在中国市场的竞争力。
自2022年起,先后推出A800与H800特供版,并在2023–2024年间陆续发布H20、L20、L2等合规型号,保留AI训练与推理所需的核心性能,却在NVLink带宽或FP64运算能力上做出削减,从而维持在中国市场的竞争力。消费级方面,RTX 4090于2022年9月亮相,凭借24 GB GDDR6X显存与Ada Lovelace架构,为4K游戏与内容创作提供极致性能;RTX 5090于2025年1月30日正式发布,借助Blackwell架构与32 GB GDDR7显存,并支持DLSS 4与PCIe 5.0,为下一代游戏和AI工作负载带来全面提升;其中国特供版RTX 5090D则在Tensor Core算力上削减约30%,采用双槽blower散热设计,面向本地AI推理与多卡机架部署,最新消息显示第二季度暂停中国区市场的供给。最后,英伟达表示中国特供AI芯片新品最快六月见,或将再次打破算力与带宽壁垒,以维持对中国市场的深度覆盖。
服务器级AI芯片:政策夹缝中的生存
1. A800
●推出时间:2022年11月,为替代A100在中国市场供货而生。
●核心规格:基于Ampere GA100,6912个CUDA核心,40 GB HBM2显存,NVLink带宽被限定在400 GB/s以下。
●应用场景:兼顾AI训练与推理、HPC仿真及虚拟桌面加速,是A100的合规高性价比替代。
2. H800
●推出时间:与A800同期(2022年11月)推出,针对H100做出合规性调整。
●核心规格:Hopper GH100架构,18432个CUDA核心,80 GB HBM3显存,芯片间互联带宽降至原版近半水平(约300 GB/s)。
●应用场景:面向FP16/BF16训练与大规模推理,尤其适合LLM推理加速与国内云服务商部署。
3. H20、L20 与 L2
●推出节奏:H20、L20、L2计划于2024年Q1–Q2量产交付,用于补足H800与A800之後的合规需求。
●H20规格:基于 Hopper 架构,具备 60MB 二级缓存,96 GB HBM3显存、4 TB/s带宽、900 GB/s NVLink、400 W功耗,FP32/FP64在合规范围内削减,TF32与AI推理算力仍有显著提升。
●L20规格:双插槽全高全长 PCIe 扩展卡,搭载 96MB 二级缓存、48GB GDDR6 ECC 内存,带宽 864GB/s,INT8/FP8 算力为 239T,更高精度逐级减半,但不支持 FP64。
●L2规格:单插槽半高卡,只有 36MB 二级缓存、24GB GDDR6 ECC,带宽 300GB/s,算力进一步降低,INT8/FP8 为 193T,FP32 额外砍了一半只有 24.1T。
消费级显卡:性能与政策的博弈
1. GeForce RTX 4090
●发布日期:2022年9月20日首发,10月12日正式开售 。
●核心规格:Ada Lovelace AD102‑300芯片,16384个CUDA核心,24 GB GDDR6X(384‑bit,21 Gbps,1,008 GB/s),Boost频率可达2520 MHz,450 W TDP。
●应用场景:原生4K光追游戏、DLSS 3多帧生成、高效内容创作和轻量AI推理。
●相对优势:对比上一代RTX 3090 Ti在4K场景下性能提升60–70%,兼容DirectX 12 Ultimate与Variable Rate Shading。
2. GeForce RTX 5090
●发布日期:2025年1月30日,CES 2025首秀。
●核心规格:Blackwell GB202‑300,21760个CUDA核心,32 GB GDDR7(512‑bit,28 Gbps,1792 GB/s),Boost 2407 MHz,575 W TDP,PCIe 5.0 x16接口。
●应用场景:旗舰级4K/8K游戏、DLSS 4多帧生成、专业可视化与创意加速、AI训练与推理并行。
●相对优势:较4090平均性能提升35%,第五代Tensor Cores和DLSS 4带来更低延迟与更高帧率,支持PCIe 5.0和未来接口标准。
3. GeForce RTX 5090D(中国特供版)
●流片与禁售:RTX 5090全球版同步流片,最新消息显示,RTX 5090D暂时在中国市场被正式全部被禁售。
●核心规格:与5090公版一致的21,760 CUDA核心与32 GB GDDR7显存,但Tensor Core AI算力削减约30%,以满足出口管制;双槽blower散热设计,适合机架与小型AI集群。
●应用场景:本地化AI推理服务器、多卡机架式部署、资金与空间受限的AI实验室。
中国特供AI芯片新品B20
目前关于英伟达中国特供版 B20 芯片的具体信息还较少,据分析它可能是 Blackwell 系列芯片的减配版,为了符合美国的出口限制,B20 会进行一定程度的性能削减,预计将成为入门级产品。据悉,NVIDIA已告知客户,最快将于 2025 年第二季度(2025年6月份)推出新的芯片样品。
不过,英伟达计划通过搭配服务器 GB20 来弥补 B20 芯片算力的缺陷。通过在 GB20 服务器中同时安装大量 B20 芯片,利用数量优势对冲计算速度的不足,并且在 GB20 机架设计中整合 NVLink 技术,提高 B20 芯片之间的数据传输速度,同时加入新的冷却解决方案,降低计算的功耗,形成多个 B20 组成的高效计算集群。这样在实际应用中,B20+GB20 方案可能在满足特定需求和美国出口管制要求的前提下,具有一定的性价比和应用场景适应性。
总结
英伟达通过对NVLink带宽、FP64运算及Tensor Core算力做“阉割”,巧妙规避美国对高端AI芯片的出口管制,同时保留核心AI与HPC性能,从而巩固其在全球最大半导体市场的份额。特供版策略既是技术创新的体现,也是地缘政治压力的产物。短期内,这些产品仍能满足部分市场需求,但长期需应对国产芯片崛起和美国政策的不确定性。
NVIDIA若再推新特供版,你认为它会如何平衡性能与政策?下一次禁售的“红线”又会在哪里?欢迎分享你的观点!