- 博客(4)
- 收藏
- 关注
原创 英伟达(NVIDIA)B200架构解读
H100芯片是一款高性能AI芯片,其中的Transformer Engine是专门用于加速Transformer模型计算的核心部件。Transformer模型是一种自然语言处理(NLP)模型,广泛应用于机器翻译、文本生成等任务。
2024-04-03 21:54:08 183 1
原创 英伟达(NVIDIA)H100架构解读
基本组织单元是流式多处理器(SM),它具有许多并排放置的不同计算引擎,等待并行向它们发出工作。A100 中包含 128 个 SM。
2024-04-03 21:52:39 268 2
原创 英伟达(NVIDIA)A100架构解读
凭借完整的 SM 阵列,Ampere 芯片拥有 8,192 个 FP32 和 INT32 单元、4,096 个 FP64 单元和 512 个 Tensor Core 单元。仅激活 108 个 SM,即可运行工作负载的 6,912 个 FP32 和 INT32 单元、3,456 个 FP64 单元和 432 个 Tensor Core 单元。Ampere GPU 中的计算层次如下所示。其中 8 个 TPC(因此有 16 个 SM)包含称为 GPU 处理集群的更高级别块,其中 8 个构成了完整的 GPU。
2024-04-03 21:51:40 557 1
原创 英伟达(NVIDIA)V100架构解读
在 2017 GPU 技术大会(GTC 2017)上,英伟达 CEO 黄仁勋正式发布了Volta处理器架构,以及使用该架构的第一款设备——适用于深度学习任务的加速卡 Tesla V100。
2024-04-03 21:49:15 272
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人