浅谈AI算力优化技术

在人工智能三要素中,无论是数据还是算法,都离不开算力的支撑。根据IDC报告,过去,用户对于人工智能的感知更多停留在数据层和应用层,随着非结构化数据的激增和算法框架的日益复杂,算力不足的问题逐渐显现出来,越来越多的用户认识到算力的重要性。
摘要由CSDN通过智能技术生成

一、AI算力的主要构成

在人工智能三要素中,无论是数据还是算法,都离不开算力的支撑。根据IDC报告,过去,用户对于人工智能的感知更多停留在数据层和应用层,随着非结构化数据的激增和算法框架的日益复杂,算力不足的问题逐渐显现出来,越来越多的用户认识到算力的重要性。

根据《2020-2021中国人工智能计算力发展评估报告》显示,人工智能应用对算力最大的挑战来自于数据中心的模型训练。具有海量参数的模型训练几乎完全依赖于核心数据中心的算力支撑。比如2020年微软发布的智能感知计算模型Turing-NLG,参数量高达到175亿;OpenAI发布的GPT-3模型,参数量更达到1750亿,是GPT-2的100余倍。由于其庞大的参数体量,在给人工智能应用提供便利的同时,对AI算力提出了更高的要求。

因此,人工智能的算法越来越依赖于算力的发展。

目前,为AI提供算力的主流AI计算加速芯片主要为以下几种:

GPU:图形处理器(Graphics Processing Unit,GPU),又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上图像运算工作的微处理器。

FPGA:现场可编程门阵列(Field Programmable Gate Array,FPGA)。其设计初衷是为了实现半定制芯片的功能,即硬件结构可根据需要实时配置灵活改变。

ASIC:专用集成电路(Application Specific Integrated Circuit,ASIC),适合于某一单一用途的集成电路产品。

他们之间与传统的CPU对比如下:

从图中可以看出,针对不同的计算任务、不同的场景,不同类型的芯片各具优势。

根据IDC报告,2020年,中国的GPU服务器依然占据人工智能市场95%左右份额;未来FPGA和ASIC等其他加速芯片将在各个行业和领域被越来越多的采用,尤其是部署在边缘和端侧的推理工作负载,以满足成本与功耗的需求。

从厂商的角度来看,Nvidia的GPU加速芯片由于其超多的核心数、超高的计算性能、简单易用的特性,成为数据中心深度学习加速方案的绝佳搭档。

随着GPU在AI领域的广泛应用,对GPU算力的优化也迎来了新的挑战

  • 2
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值