人工智能+芯片(一文懂)
文章平均质量分 90
尽量以最简单的方式,分享当下流行技术
embed_huang
爱学习,爱分享
展开
-
(3)一文懂“芯片”设计、代工、封测
芯片制造就像“建造房子”,前端设计相当于房屋设计师,后端制造相当于建造师,最后封装厂商对房屋进行外部装修,留出与外部连接的水/电/网等通道,让房子能正常运转,相当于房子装修工程师。原创 2021-08-05 12:10:30 · 5158 阅读 · 1 评论 -
(2)一文懂“AI推理芯片” 测试方法与测试指标
涵盖了图像分类(ResNet)、医学影像分割(U-Net3D)、目标物体检测(SSD)、目标物体检测(Mask R-CNN)、语音识别(RNN-T)、自然语言理解(BERT)、智能推荐(DLRM)以及强化机器学习(Minigo)8类AI应用场景原创 2021-08-12 16:22:52 · 2233 阅读 · 1 评论 -
(1)一文懂“AI训练芯片” 测试方法与测试指标
最初由各个芯片厂商自行公布的跑分结果往往很难直接比较,因为其中包括了许多不同的参数,例如模型版本(例如同一个ResNet50可以延伸出许多不同的版本,不同厂商可能会选取对自己芯片最有利的版本来做跑分),模型数字精度(浮点数还是整数)等等,这时候就需要一个统一的测试方法与指标了。原创 2021-08-12 16:10:55 · 3109 阅读 · 0 评论 -
(6)一文懂Transformer
Transformer抛弃了以往深度学习任务里面使用到的 CNN 和 RNN ,著名的OpenAI GPT和BERT模型都是基于Transformer构建的,这个模型广泛应用于NLP领域,例如机器翻译,问答系统,文本摘要和语音识别等等方向,目前也逐步应用在视觉领域。原创 2021-08-12 11:52:30 · 3660 阅读 · 2 评论 -
(5)一文懂“NLP Bert-base” 模型参数量计算
Bert 的模型由多层双向的Transformer编码器组成,由12层组成,768隐藏单元,12个head,总参数量110M,约1.15亿参数量。原创 2021-08-12 11:23:08 · 11175 阅读 · 1 评论 -
(4)一文懂“CNN模型” 参数量与计算量
计算量主要体现了芯片的运算能力即算力,参数量取决于显存大小。计算量主要在于卷积,参数量主要在于全连接层。原创 2021-08-12 10:56:17 · 3930 阅读 · 0 评论