描述
(文章来源:Graphcore)
在Wave Summit 2020深度学习开发者峰会上,百度正式宣布Graphcore为百度飞桨(PaddlePaddle)硬件生态圈共建计划伙伴之一,并且共同签署倡议书,以助力AI创新应用在各类场景落地,并推动行业统一标准建立。通过百度飞桨,更多中国的开发者将能够利用Graphcore IPU这一全新处理器架构,实现机器智能的突破性创新,大幅加速AI模型。
百度飞桨是中国首个开源开放、功能完备的产业级深度学习平台,目前累计开发者数量超过190 万,服务企业数量8.4 万家,创建了超过23万个模型,成为国内深度学习平台的领先者。百度飞桨硬件生态圈的成立旨在推进深度学习与人工智能应用在中国市场的加速普及与成果推广。百度飞桨硬件生态圈的初始成员共有13家,涵盖云端和设备端的不同硬件厂商。其中,Graphcore作为百度飞桨在云端训练和推理的重要合作伙伴,将通过云端和数据中心的IPU技术帮助开发者实现AI创新模型的大幅加速,从而在市场中赢得先机。
“智能硬件平台与深度学习框架的融合成为构建全球领先的AI 应用与推广生态的关键。通过百度飞桨硬件生态圈,我们希望与合作伙伴们携手,加快软硬一体适配。Graphcore是百度飞桨在云端训练和推理方面重要的合作伙伴,通过飞桨硬件生态圈,更多使用飞桨的开发者可以利用Graphcore的 IPU技术进行机器学习创新,缩短训练时间,提升开发效率。”百度飞桨相关负责人表示。
Graphcore销售副总裁、中国区总经理卢涛先生表示:“百度飞桨是中国首屈一指的深度学习平台,我们十分高兴与百度飞桨携手打造硬件生态圈,加速各类AI应用的普及。Graphcore从零开始设计智能处理器IPU,可同时用于云端训练和推理,旨在为广大AI创新者突破传统硬件带来的瓶颈。
Graphcore的IPU硬件与解决方案已经量产,并应用在不同AI场景上。通过百度飞桨,更多开发者能够利用Graphcore IPU这一全新处理器架构,大幅加速AI模型,在下一波机器智能浪潮中取得突破。未来,我们将继续和百度飞桨深化研发合作,加速机器视觉和自然语言处理等算法模型的适配与落地。”
面对全球新常态,云端的计算需求从算量到算力都得到爆发性增长。CPU和GPU从来不是为了满足机器学习的计算需求而设计,因此前沿的创新AI算法模型经常受到硬件的掣肘而被迫妥协。IPU与当今的CPU和GPU处理器完全不同,由Graphcore完全从零设计,专门适用于算力密集型的机器学习和深度学习任务。
它是一种高度灵活、易于使用的并行处理器,能在目前用于训练和推理的机器智能模型上实现最先进的性能。IPU和产品就绪的Poplar软件栈为开发人员提供了功能强大、高效、可扩展和高性能的解决方案,从而助力实现AI创新。通过加速更复杂的模型并开发全新的技术,客户得以解决最困难的AI工作负载。目前IPU产品已经全面进入批量生产并交付给全球客户,应用在金融、医疗、电信、互联网等AI场景中。
Graphcore致力于从已有框架更快速、更轻松地开发和部署机器学习应用程序和模型,通过为用户提供直接在硬件级别进行编程的能力来支持下一代机器学习。因此,Graphcore可以帮助飞桨进一步降低开发门槛并提升开发效率。飞桨的使用者大多是高级AI从业人员,对于算力要求高,且处理的很多是自然语言处理、计算机视觉、视频分析等计算高度密集的任务。他们可以在IPU上创建自己的机器智能模型,直接在硬件级别进行编程而不用牺牲易用性,实现创新模型的快速运行迭代。
(责任编辑:fqj)
打开APP阅读更多精彩内容
点击阅读全文