英特尔推出人工智能芯片,性能直逼GPU?

英特尔正在发布一整套人工智能芯片和系统,希望能在市场上留下一些东西。它的最新条目是一个名为Hala Point的神经形态系统。该系统包括英特尔名为Loihi 2的研究芯片,这是一款奇特的人工智能芯片,其灵感来自人脑的设计和功能。

“这与基于图形处理单元(GPU)和中央处理器(CPU)的架构所达到的水平相媲美并超过了,”英特尔在其网站上声称。

值得重申的是:Hala Point是一个研究系统,Loihi 2芯片仍在英特尔的实验室中,尚未上市。 它不会很快取代 Nvidia GPU 的主导地位 。

相反,它可能是一种新的计算架构的蓝图,在这种架构中,计算会传输到数据。当今的计算设计依赖于数据传输到计算,这造成了瓶颈。

Hala Point 系统和 Loihi 2 系统追求“稀疏计算”的新概念,美国国防部正在将其作为未来的计算架构进行研究。

该芯片的架构在处理音频和视频方面更有效,英特尔在上个月发表的一篇研究论文中强调了这一点。

英特尔神经芯片的前景

英特尔在 2017 年宣布了其首款神经形态芯片,因为它在扩大制造能力和减小芯片尺寸方面遇到了困境。

当前的 AI 计算技术涉及将数据移动到计算中,由于存储、内存和处理方面的瓶颈,这被认为对 AI 来说效率低下。Loihi 2 的神经形态设计侧重于在数据点进行高效执行,从而释放带宽和存储空间。

美国国防部情报高级研究项目活动(IARPA)的项目经理威廉·哈罗德(William Harrod)在超级计算22大会的主题演讲中说,数据的激增使当前的计算模型不可持续,特别是对于后百万兆次级系统。

Harrod说,IARPA有一个以数据为中心的计算程序,可以“根据数据移动问题而不是ALU的浮点单元来定义计算的未来”。

该计划名为 AGILE(高级图形智能逻辑计算环境),专注于一种新的架构,将计算转移到数据中,反之亦然,以生成更快的实时结果。

英特尔、高通和AMD等公司都在推动该计划的新芯片设计和计算机架构。这些公司正在向IARPA提交提案。

英特尔研究人员上个月发表的一篇研究论文将 Loihi 2 与 Nvidia 的 Jetson Orin Nano 进行了比较。研究人员得出的结论是,Loihi 2 比 Orin Nano 具有功耗和性能优势,但 Nvidia 的芯片在大规模计算时更好。

硅脑的虚假承诺

十多年来,芯片制造商和大学一直在开发神经形态芯片。

这些异国情调的芯片被大肆宣传为计算机带来了更高水平的智能,这是英伟达GPU等人工智能芯片所扮演的角色。当时,IBM和其他公司也在开发神经形态芯片。

神经形态芯片是概率性的,并且会考虑计算中的不确定性和随机性。这些芯片旨在复制大脑的结构和功能,这本身仍然是一个谜。

大多数传统的人工智能芯片都基于确定性模型运行,这些模型更精确,并且依赖于机器学习和相关算法。然而,人工智能芯片也可以结合概率模型。

神经形态芯片中的计算核心扮演神经元的角色,神经元是相互连接的(如突触)。跨突触的神经元计算是并行进行的。低精度计算点通过了解信息中的趋势和关联来得出结论。

大脑可以通过许多并行工作的神经元来识别猫,而英特尔的芯片也具有类似的功能。

英特尔的Hala Point将其系统中的计算神经元数量扩大到1.15亿个,这与人脑的规模(约86亿个)相去甚远。但计算能力明显大于其2020年名为Pohoiki Springs的神经形态系统,该系统拥有100亿个神经元。

英特尔声称,该芯片可以“支持每秒多达 20 万亿次运算,或 20 petaops,在执行传统深度神经网络时,效率超过每秒 15 万亿次 8 位运算/瓦 (TOPS/W)。这些说法尚未得到独立核实。

神经形态芯片的起源

英特尔的第一个硅脑项目于2017年问世,但其他芯片开发已经在进行中。IBM正在开发自己的神经形态芯片,而高通正在开发其Zeroth芯片。

2013年,高通公司发布了Zeroth,首席执行官保罗·雅各布斯(Paul Jacobs)嘲笑了智能手机具有洞察力并预测智能手机用户需求的想法。他的预测花了一段时间才成真,但像谷歌Pixel这样的智能手机现在可以适应用户的需求。

美国和欧盟在2010年代为类脑芯片提供资金的努力消失得无影无踪。

从2008年开始,DARPA资助了一个名为Multiphase Synapse(神经形态自适应塑料可扩展电子系统)的项目,该项目涉及IBM,惠普,康奈尔大学,斯坦福大学和其他大学。

欧盟资助了一项耗资1亿美元的人脑项目,以了解大脑是如何工作的,其中一个组成部分包括开发基于该设计的芯片。人脑计划现已结束。

IBM仍然是为数不多的开发硅脑的组织之一,去年,它发布了一款名为NorthPole的芯片,该芯片更注重能效,而不是扩展。

英特尔的神经芯片

Hala Point 系统包括 Loihi 2 芯片,该芯片采用英特尔 4 工艺制造,每个芯片有 128 个内核。每个芯片包括多达 1 万个数字神经元和 120.2 亿个突触。Loihi <> 的吞吐量是通过促进神经元之间通信的电脉冲实现的。

图片

Loihi 2 是英特尔的第二代神经形态研究芯片。(来源:英特尔公司)

Hala Point 芯片有 1,152 个 Loihi 2 芯片和 1.15 亿个神经元和 128 亿个突触。六机架系统功耗为 2,600 瓦,芯片采用网状设计,具有六个异步并行通道以互连多个 Loihi 2 芯片。

10Gbps 以太网连接器有助于通信。英特尔表示,网状配置的范围可以从一个到“数千个芯片”。

英特尔在一篇研究论文中表示:“进一步的发展将使神经形态计算的应用能够克服目前限制人工智能功能在现实世界中实时部署的功耗和延迟限制。

这些芯片是人工神经网络,可以执行许多并发的音频和视频功能。计算是稀疏的,并且更多地在数据所在的位置执行。

英特尔的研究人员在论文中写道:“虽然今天的GPU、Tensor处理器和深度学习加速器专注于以非常高的吞吐量进行基于密集矩阵的计算,但神经形态处理器专注于稀疏事件驱动的计算,最大限度地减少活动和数据移动。

英特尔的研究将其人工神经网络芯片与大约一年前发布的Jetson Orin Nano芯片进行了比较。

图片

英特尔 Hala Point 系统由英特尔 Loihi 2 神经形态处理器组成。(出处:英特尔公司)

该研究论文得出的结论是,与稀疏计算模型上的Jetson芯片相比,Loihi 2芯片上的神经元仅在需要时激活。这样更节能,更好地利用了带宽和其他计算资源。

然而,当计算核心完全启动并在可比带宽内大规模运行时,Jetson Orin 在大型操作中具有优势。

芯片适合的位置

Loihi 2在重组期间幸免于Pat Gelsinger的斧头,因此该公司可能会看到研究的价值。Hala Point部署在桑迪亚国家实验室,该实验室测试各种节能AI的芯片和配置。

该芯片也是英特尔稳定的人工智能芯片的一部分,其中包括 Gaudi 3 和 Ponte Vecchio GPU。它目前不会对任何 CPU 或 GPU(包括英特尔的产品)构成任何威胁。

Neuromorphic 是英特尔考虑其未来的另一个芯片概念。使芯片在商业上可行是一项挑战。与量子处理器一样,这些芯片将需要软件框架和算法。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值