IBM投注$2B用于1000X AI硬件的性能提升

目前,人工智能系统主要是基于机器学习和“狭隘”——因为它们符合今天的标准,所以它们仅限于执行一些狭义定义的任务。未来十年的人工智能将利用深度学习的更大力量,变得更加广泛,解决更多更复杂的问题。此外,目前用于人工智能部署的通用技术将被技术堆栈所取代,这种技术堆栈具有特定于AI的指数并且指数级更快,而且需要花费很多钱。

IBM表示,为了在人工智能正在展开中占据中心位置,与纽约州和几家重型技术公司合作,将投资20亿美元用于IBM研究院人工智能硬件中心,专注于开发下一代AI芯片,网络和制造,IBM表示,在未来十年内提供1,000倍的AI性能效率提升。

“今天,人工智能不断增加的复杂性正在推动行业现有硬件系统的界限,因为用户可以找到更多方法来整合来自边缘,物联网等的各种数据源。”IBM研究半导体副总裁Mukesh Khare表示,“…今天的系统通过将机器学习功能与高带宽CPU和GPU,专用AI加速器和高性能网络设备相结合,实现了更高的AI性能。为了保持这一发展轨迹,需要采取新的思路来加速AI性能扩展,以适应不断扩大的AI工作负载复杂性。”

IBM表示,该中心将成为与IBM研究人员合作的新研究和商业合作伙伴生态系统的核心。合作伙伴今天宣布,包括用于制造和研究的三星,用于高性能互连设备的Mellanox Technologies,用于软件平台的Synopsys、仿真和原型设计,用于开发高性能硅芯片的IP、以及半导体设备公司Applied Materials和Tokyo Electron。

IBM与纽约州奥尔巴尼纽约州立大学理工学院合作,与邻近的伦斯勒理工学院计算创新中心合作,表示该公司及其合作伙伴将“推动从芯片级设备,材料和架构到软件支持的一系列技术。

Big Blue表示,该中心的研究将侧重于通过包括通过数字AI核心进行近似计算和通过模拟AI核心进行内存计算的方法来克服当前的机器学习限制。据IBM称,这些技术将使全面实现深度学习AI所需的性能效率提高一千倍。

“我们的模拟AI核心是内存计算方法在性能效率方面的一部分,通过消除与内存之间的数据传输来抑制所谓的Von Neuman瓶颈。”IBM表示,“深度神经网络映射到模拟交叉点阵列,并且切换新的非易失性材料特性以在交叉点存储网络参数。”
在这里插入图片描述
“研究和开发的一个关键领域是满足深度学习推理和培训过程需求的系统,”Khare说。“与非结构化数据的更一般的机器学习相比,这种系统提供了显着的准确性改进。随着算法变得越来越复杂,为了提供具有更高认知能力的AI系统,这些强烈的处理需求将呈指数级增长。“

Khare表示,研究中心将主持研发、仿真、原型设计、测试和模拟活动,专门用于培训和部署高级AI模型的新AI核心,包括成员可以在实际应用中展示创新的测试平台。该中心的专业晶圆加工将在奥尔巴尼进行,并在纽约Yorktown Heights的IBM Thomas J. Watson研究中心提供一些支持。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值