谷歌公布了TPU(优化了TensorFlow的ASIC)的更多细节

继Google CEO Sundar Pichai早些在Google I/O大会上公布了TPU(Tensor Processing Unit, 张量处理单元)的研发之后,最近Google的硬件工程师Norm Jouppi又公布了TPU的若干细节

\\

TPU为了更好的用TensorFlow(TF)来实现机器学习功能而特意优化了ASIC,降低了计算精度以减少完成每个操作所需要的晶体管数量。目前为止Google还没有提供性能测试数据,但Google声称这些优化有助于提高芯片每秒钟处理的操作数量。

\\

Google表示这个项目几年前就已经开始了,而且它的技术领先了当前业界水平整整七年,但Google并没有向社区提供可供分析的数据。Jouppi说只需22天就可以完成这种芯片从原型测试到数据中心部署的完整流程。这也是Google将研究成果应用于实际生活的又一个例子。

\\

大家关心的问题集中于TPU与大家熟悉的东西之间有何异同,比如Nvidia的Telsla P100等芯片,或者PaaS提供者Nervana提供的机器学习服务等。Google公布的信息中表示TPU也许可以与Nvidia四月份发布的Tesla P100芯片相类比。

\\

最近有消息说Google在自行研发和生产芯片,并分析了对Intel等业界龙头公司的潜在影响。Jouppi提到Google实际上想要引领的是机器学习领域,并且要让客户享受到这些变革带来的好处,但他这一次没有给出更细节的计划及内容。

\\

在原贴的评论中有人提到TPU有可能会取代Nvidia的P100TX1,以及IBM的TrueNorth,但没有给出详细的评测数据和对比。Google已经将TPU用于许多内部项目,如机器学习系统RankBrain、Google街景、以及因为在二月份的围棋比赛中击败韩国大师李世石而声名鹊起的AlphaGo等。但Google没有给出将TPU应用于外部项目的计划。

\\

查看英文原文Google Details New TensorFlow Optimized ASIC

\\

感谢张龙对本文的审校。

\

给InfoQ中文站投稿或者参与内容翻译工作,请邮件至editors@cn.infoq.com。也欢迎大家通过新浪微博(@InfoQ@丁晓昀),微信(微信号:InfoQChina)关注我们。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值