- 博客(159)
- 收藏
- 关注
原创 NVIDIA H100与GH200选型指南:AI与HPC负载的硬件适配方案
H100与GH200并非替代关系,而是针对不同负载场景的互补方案:●H100是一款平衡型通用加速器,在训练、微调、推理等多种场景中表现稳定,计算密度高且部署灵活,是当前大多数AI与HPC负载的优选方案。●GH200是一款针对性极强的系统级解决方案,聚焦内存密集、CPU-GPU协同紧密的细分场景,能够突破传统分离式架构的瓶颈,为特殊负载提供更优性能。
2026-01-22 17:20:45
912
原创 超微2U高密度服务器AS-2126HS-TN评测(双AMD EPYC 9005 Turin)
超微基于AMD Turin架构的双路A+服务器AS-2126HS-TN——这款2U机型主打“超高核心数负载支持”与“灵活PCIe扩展”,瞄准企业级虚拟化、软件定义存储、AI推理、HPC等场景。
2026-01-21 17:58:09
786
原创 Intel Xeon 698X 现身GeekBench:Granite Rapids-WS终于露出完整轮廓
Granite Rapids-WS 平台的旗舰型号 Xeon 698X 出现在了 GeekBench 数据库中。这是它首次以相对完整的形态进入公众视野。虽然目前仍属于工程样本阶段,但从已曝光的信息来看,698X 基本可以确认将成为新一代 Xeon 工作站产品线的性能天花板级 SKU。
2026-01-14 15:29:26
726
原创 超微 SYS-E403-14B-FRN2T 深度解析:面向边缘与 IoT 场景的高扩展紧凑型服务器
超微 SYS-E403-14B-FRN2T 是一款面向边缘计算与 IoT 场景设计的紧凑型服务器平台。在有限的物理空间内,它同时提供了多条 PCIe 5.0 扩展能力、对高功耗处理器的支持,以及灵活的前置 I/O 架构,形成了少见的“高扩展 + 小体积”组合。
2026-01-13 15:25:14
1079
原创 H200 芯片对华动态梳理:从出口许可到当前进展
据路透社报道,英伟达要求国内客户在下单 H200 时进行全额预付款项支付。同时,订单一旦确认,不得取消、退换或更改配置。
2026-01-09 16:56:29
1242
原创 NVIDIA Rubin平台重磅亮相CES:六芯协同重塑AI算力,2026下半年量产落地
从行业演进视角来看,CES虽仍冠以消费电子展之名,但如今已成为科技巨头发布前沿算力技术的重要阵地,其技术辐射范围早已突破消费端边界。NVIDIA作为AI算力领域的领军者,此次率先召开芯片厂商发布会,重磅推出下一代Rubin AI平台,正是这一趋势的鲜明体现,也为2026年AI算力硬件迭代拉开了序幕。据NVIDIA披露,Rubin平台所需核心芯片已全部完成晶圆制造,进入实验室系统调试阶段,量产与上市节奏清晰可控。
2026-01-06 15:53:36
954
原创 融合与跃迁:NVIDIA、Groq 与下一代 AI 推理架构的博弈与机遇
近期行业爆出 NVIDIA 与 AI 芯片初创企业 Groq 达成了一项重磅 技术许可与人才招募协议。虽然市场上有传闻称 NVIDIA 以约 200 亿美元收购 Groq,但官方声明显示,这并不是一次传统意义上的公司并购。
2025-12-29 15:17:56
961
原创 超微SYS-821GE-TNHR深度测评:8卡 NVIDIA H200 风冷 AI 服务器
在高端 AI 服务器领域,Supermicro(超微)SYS-821GE-TNHR 是一款颇具代表性的“非典型产品”。当行业讨论的重心普遍集中在液冷方案与极限算力密度时,这台服务器选择了另一条更务实的路径:基于 NVIDIA HGX H200 的 8 卡平台,采用风冷设计,并以 8U 机箱形态,面向主流数据中心的真实部署环境。
2025-12-26 16:09:03
998
原创 2025年末128核CPU实测:AMD EPYC 9755 vs Intel Xeon 6980P,谁才是服务器真王者?
随着2025年收官,服务器CPU领域,Intel与AMD的旗舰对决从未停歇。作为128核性能标杆,Xeon 6980P与EPYC 9755的比拼一直是行业焦点。随着Linux 6.18内核、GCC 15.2等软件栈升级,本文将基于最新Linux软件栈,重新审视这两款新一代Intel Xeon与AMD EPYC处理器的表现。
2025-12-24 18:22:19
1064
原创 NVIDIA RTX PRO 5000 Blackwell GPU 正式登场,72GB 显存提升 50%
在 RTX PRO Blackwell 家族最初发布时,NVIDIA 推出了旗舰型号 RTX PRO 6000,其显存容量高达 96GB。相比之下,次旗舰 RTX PRO 5000 Blackwell 的 48GB 显存在容量上存在明显落差。随后,英伟达又补充了面向入门级专业用户的多款型号,但不同层级之间的显存断层依然存在。
2025-12-19 16:53:25
808
原创 AI 正在“吃光内存”,NVIDIA与SK海力士把目光投向了 NAND
当前的AI工作负载结构需要连续访问大量模型参数,这是HBM或通用DRAM产品无法满足的。AI SSD可以扩展到1亿IOPS,这比传统的企业SSD要大得多,最终将允许伪内存层,针对AI工作负载进行优化。
2025-12-17 17:40:55
196
原创 英伟达全新GPU集群智能管理平台深度解析:实时监控与合规管控,如何重塑AI数据中心运维?
近日,英伟达正式披露了其最新的GPU集群监控软件,该解决方案专为数据中心运营商设计,旨在提供对AI GPU集群的全面远程管理能力。软件核心功能包括功耗与热监测,并可支持物理位置追踪,以帮助加强设备合规管理。
2025-12-15 16:16:27
299
原创 英伟达的“AI算力霸权”背后:谁来守护被牺牲的FP64与科学计算的未来?
英伟达近期在超级计算领域遭遇持续争议。部分 HPC 领域专家批评其在新架构中优先强化 AI 所需的低精度算力,而对传统建模与仿真高度依赖的 64 位(FP64)性能投入不足。
2025-12-11 17:50:58
799
原创 英伟达 H200 解禁之后,算力格局会发生什么变化?
特朗普政府宣布允许英伟达等公司向中国出售AI芯片,但将从中抽取25%的分成,并表示这一安排也将适用于AMD、英特尔等其他芯片公司。
2025-12-09 16:00:58
528
原创 英特尔 Arc Pro B60 Battlematrix测评:192GB 显存赋能本地 AI 部署
通过在单系统中最高支持八块 GPU,实现总计 192GB 的显存容量,Battlematrix 旨在为 AI 推理工作负载提供一个相对于其他专业 GPU 生态更具成本效益的选择。
2025-12-02 15:23:30
963
原创 AMD MI430X芯片震撼发布:首发HBM4内存,性能直指AI算力王座!
自推出Instinct MI300系列以来,AMD团队一直在重塑其AI硬件产品组合,并在多个关键领域取得进展,包括架构改进、集成业界领先的组件以及实现高端能效表现。
2025-11-20 15:13:43
436
原创 英特尔确认取消 8 通道 Diamond Rapids:服务器 CPU 战局再度升级
近日,服务器芯片市场传来重磅消息:英特尔已官方确认,其下一代至强(Xeon)处理器 Diamond Rapids 的 8 通道内存版本正式从产品路线图中移除。
2025-11-18 15:46:41
1304
原创 震撼发布!NVIDIA Blackwell Ultra 横扫MLPerf七项基准测试,10分钟搞定Llama 405B训练!
在最新公布的MLPerf AI训练基准测试中,NVIDIA凭借Blackwell Ultra架构的GB300 NVL72平台,包揽全部七项基准测试冠军,再次彰显其在AI计算领域的绝对统治力。其中最引人注目的是——GB200 NVL72系统仅用时10分钟就完成了Llama 3.1 405B大模型的训练任务,创下全新里程碑。
2025-11-14 15:53:48
316
原创 AMD官宣Zen 6/7 CPU与MI400/500 GPU路线图,全面进攻AI算力市场
纵观此次公布的路线图,AMD的雄心展露无遗:Zen 6与Zen 7架构将持续提升性能与能效,并深度集成AI能力;而Instinct MI400/MI500系列GPU则以年度迭代的节奏,在规格与性能上直接对标甚至意图超越NVIDIA,全面发力以争夺AI计算市场的领导地位。
2025-11-12 16:29:15
688
原创 算力霸权之争白热化!谷歌自研Axion CPU与Ironwood TPU亮剑,碾压英伟达GB300
谷歌自研 Axion CPU 和第七代 Ironwood TPU,体现了大模型时代算力体系从“堆 GPU”走向“通用 CPU + 专用加速器 + 高速互联”的融合架构趋势。
2025-11-07 15:58:41
642
原创 AMD RDNA5 完整前瞻:性能翻倍,光追大升级,发布时间敲定!
AMD 的下一代 GPU 架构,可能被称为 RDNA 5 或 UDNA 系列,预计将成为Team Red战略上的一个关键转变。
2025-11-05 14:44:00
1004
原创 三星公布2026年内存路线图:HBM4量产、24Gb GDDR7与128GB+ DDR5战略升级
三星近期首次展示了其下一代HBM4内存解决方案。该方案每IC速度最高可达11 Gbps,将成为英伟达Rubin、AMD MI400系列等未来AI加速器的潜在解决方案。
2025-10-30 15:38:19
661
原创 英伟达 GTC DC25 全景解读:从 AI-原生 6G 到 Vera Rubin 超级芯片,AI 生态的下一阶段
从 Vera Rubin 到 DRIVE Thor,从 AI-原生 6G 到数字孪生工厂,GTC DC25 展示了 AI 正在从“模型革命”迈向“系统革命”。AI 不再只是算法的竞争,而是算力、连接与应用协同的生态重塑。
2025-10-29 16:59:36
783
原创 “短小精悍”的边缘AI算力利器:超微SYS-E403-14B-FRN2T服务器评测
超微SYS-E403-14B-FRN2T是一款紧凑的16英寸深系统,专为嵌入式边缘部署设计,在这些场景中,空间和可维护性与原始性能同等重要。尽管体积小巧,它却保留了通常与大型机架式服务器相关的特性,包括双冗余PSU、支持全高GPU以及高达300W TDP的灵活CPU选项。
2025-10-24 14:29:12
664
原创 实测对比 32GB RTX 5090 与 48GB RTX 4090,多场景高并发测试,全面解析 AI 服务器整机性能与显存差异。
随着RTX 5090的到来,我们看到了一款在AI模型推理、微调与中型训练任务中表现出色的全能GPU。与此同时,RTX 4090 48GB凭借更大的显存,在长上下文与多任务并发下仍具优势。
2025-10-23 11:24:42
2190
原创 英伟达再出狠招!RTX Pro 5000 Blackwell GPU携72GB GDDR7显存来袭,直接增加50%
RTX Pro 5000 72GB是标准版RTX Pro 5000的升级版本,主要区别在于显存容量的提升。前者额外增加了24GB GDDR7显存,容量大幅增长50%。内存子系统的这一显著增强,预计也将伴随着成本的相应增加。
2025-10-22 15:07:22
598
原创 NVIDIA RTX PRO 6000 工作站 GPU 深度评测:Blackwell 架构+ 96 GB 显存无可替代!
在NVIDIA GTC 2025上,该公司宣布推出NVIDIA RTX Pro 6000 Blackwell系列。这款新的RTX Pro 6000 Blackwell系列有三种变体,可以跨越桌面工作站到服务器应用程序。RTX PRO 6000 工作站显卡专为创作者、工程师和 AI 开发者设计,他们需要在塔式或台式机箱内获得最大计算性能和显存。而 RTX PRO 6000 Blackwell 服务器版则专为机架服务器和无头推理或渲染节点设计。
2025-10-09 17:01:51
2908
原创 Supermicro NVIDIA Grace Superchip存储服务器超微ARS-121L-NE316R开箱评测
超微ARS-121L-NE316R是一款基于NVIDIA Grace超级芯片的NVMe存储服务器。尽管在2025年推出NVMe存储服务器听起来可能并不新奇,但值得注意的是:NVIDIA Grace超级芯片的初衷并非用于存储服务器。
2025-09-29 15:54:06
369
原创 千亿美元+10GW!OpenAI与英伟达的“星际级”合作,重新定义AI基建规模
NVIDIA 与 OpenAI 宣布了一项史无前例的合作:NVIDIA 将投资最高 1000 亿美元,用于支持 OpenAI 部署 10GW 级别的 AI 算力基础设施。这不仅是科技行业的大事件,也标志着 AI 计算规模正在进入一个全新的量级。
2025-09-23 14:36:15
487
原创 AI服务器处理器新王者诞生:AMD EPYC 9575F携手八路H100,性能实测独占鳌头
AMD EPYC 9575F凭借64个Zen 5核心、5.0GHz最高加速频率以及12通道DDR5-6000/6400内存支持,成为GPU/AI服务器的领先选择。在相同八卡NVIDIA H100 GPU配置下,该处理器在超微AI服务器中作为主机CPU持续提供优于英特尔至强铂金8592+的性能表现。
2025-09-15 17:59:25
1189
原创 架构深解:英伟达Rubin CPX如何通过专用预填充加速器与解耦架构重塑AI推理效率与成本
英伟达最新发布的Rubin CPX专用加速器,通过专注于预填充阶段计算优化实现了推理领域的突破性创新,只有通过为推理中截然不同的两个阶段——预填充和解码(decode)——配备专用硬件,解耦式服务(disaggregated serving)才能充分发挥其潜力。
2025-09-11 16:42:27
2384
原创 AI芯片世界大战彻底乱套!英伟达Blackwell Ultra与AMD MI355X的首次正面交锋,结果刚刚公布!
MLPerf v5.1 AI推理基准测试对决:NVIDIA Blackwell Ultra GB300 AMD Instinct MI355X成为焦点
2025-09-10 17:33:28
813
原创 AMD三箭齐发:MI350已成AI加速器新王牌,256颗GPU的MI500“王炸”已预定2027
2023年的MI300X/300A,2024年的MI325X,2025年的MI350X/MI355X,2026年就是MI400系列。继续向前,2027年,AMD还将推出再下一代的MI500系列,升级台积电14A 1.4nm工艺,搭配代号Verano的再下一代EPYC处理器,应该会升级到Zen7架构了!
2025-09-05 15:40:39
865
原创 突破内存墙:HBM的崛起与路线图——HBM4、定制基础芯片、海岸线扩展、工艺流程、本土生产、三星认证
在本次内容中,我们将审视HBM的现状、供应链的动态以及未来正在发生的突破性变革。同时将审视HBM在AI加速器架构中的关键作用、HBM对DRAM市场的影响,以及它为何正在颠覆内存市场分析的方式。
2025-09-03 17:57:36
2003
原创 英特尔揭晓下一代Clearwater Forest至强处理器:18A工艺打造288能效核,IPC提升17%引领服务器能效革命
英特尔近日首次披露其下一代Clearwater Forest“能效核”(E-Core)至强处理器细节:该处理器采用18A制程工艺,集成12个计算芯片组,搭载288个Darkmont架构核心,实现17%的IPC(每时钟周期指令数)提升,L2缓存带宽翻倍,并支持DDR5-8000内存。
2025-08-26 14:10:33
1356
原创 NVIDIA L40S 深度评测:如何用一颗“跨界核弹”打通AI与物理仿真的边界?
在数据中心GPU领域,以H100为代表的纯计算卡专注于极致AI算力却完全舍弃图形加速能力;而传统专业视觉显卡又难以承载现代推理任务和新兴AI图形应用的需求。L40S的推出,恰恰为合成数据生成、多模态AI开发以及需要并行处理计算与图形任务的Omniverse应用提供了理想解决方案。
2025-08-25 17:24:03
786
原创 OpenAI 时隔多年再开源!GPT-OSS 120B/20B 发布,支持本地部署,消费级 GPU 即可运行
与 LLaMA3、Qwen2 等开源模型相比,GPT-OSS 在模型精度、工具能力、可用性方面具备一定优势。更重要的是,它标志着 OpenAI 正式补齐了从 API 到开源模型的“全栈生态拼图”,并展现了其在硬件优化和模型压缩方面的工程能力。
2025-08-08 14:22:54
1483
原创 PCIe 8.0 官宣!带宽翻倍——峰值带宽达 1TB/s,计划2028年正式发布
即将推出的 PCIe 8.0 规范将把 PCIe 7.0 的原始比特率翻倍至 256.0 GT/s,在 x16 配置下实现高达 1 TB/s 的双向带宽。该规范将继续依赖 PAM4 信号调制、前向纠错 (FEC) 以及数据流传输模式 (Flit Mode) 编码(这些技术已在 PCIe 6.0 和 PCIe 7.0 中使用)。
2025-08-07 11:44:00
886
原创 AMD 线程撕裂者 9980X/9970X 评测:Zen 5 架构发力,专业性能狂涨!64核怪兽性能提升最高达108%
AMD 持续推动其高端桌面产品线发展,推出了全新的 Ryzen Threadripper 9980X 和 9970X。基于最新的 Zen 5 架构打造,这些新处理器面向在 3D 渲染、视频制作、软件编译和科学计算等多线程环境中工作的专业用户。
2025-07-31 14:54:31
2815
原创 AMD推出Radeon AI Pro R9700:32GB显存加持,发力AI推理与专业图形双场景
Radeon AI Pro R9700的发布,意味着AMD正式在AI工作站显卡领域亮出王牌。凭借RDNA 4的架构优势、32GB显存配置及面向推理优化的特性,R9700成为一款在图形性能与AI计算之间寻求平衡的新型专业显卡。
2025-07-25 16:59:55
2176
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅