#今日论文推荐#Nature:类脑计算亟需宏大蓝图

#今日论文推荐#Nature:类脑计算亟需宏大蓝图

类脑计算(Brain-inspired Computing,或译作“脑启发计算”)向我们描绘了一幅美好的愿景:按照根本不同的方式以极高的能源利用效率处理信息,并且能够处理人类正在增速产生的越来越多的非结构化与噪声数据。要想实现这样的愿景,我们亟需一张宏图,在资金、研究重点等方面提供支持,将不同的研究团体协调地聚集在一起。昨天,我们在数字技术上如此走过;今天,在量子技术上一如既往;那么明天,在类脑计算上所做的是否也应如此?

背景
现代计算系统能耗过高,不能作为可持续的平台支持日益应用广泛的人工智能技术的发展。我们仅仅关注了速度、准确度、每秒并行操作数等功能,而忽略了可持续性,特别是在基于云的系统(Cloud-based Systems)的例子中。瞬间获取信息的习惯让我们忘记了实现这些功能的计算机系统会带来怎样的能源和环境消耗。例如,每次谷歌搜索都有数据中心的支持,而这样一个数据中心每年大约使用200太瓦时(terawatt)的能量,预计到2030年能耗还将增加一个数量级[1]。无独有偶,在高端人工智能系统中,以DeepMind引以为傲的、能够在复杂策略游戏中击败人类专家的 AlphaGo 和 AlphaGo Zero 为例,它们需要数千个并行处理单元,每个单元的功率大约200瓦,远超人脑的约20瓦[2]。

尽管并非所有数据密集型运算都用得上人工智能和深度学习,我们仍然需要担心应用越来越广的深度学习所带来的环境成本。此外,我们还应考虑包括物联网(Internat of Things, IoT)和自主机器人代理(Autonomous Robotic Agents)等不需计算密集型深度学习算法的应用,减少其能耗。若能耗需求过高,需要接入无数设备来运行的物联网也就无从谈起。分析表明,激增的算力需求远超摩尔定律(Moore's Law)带来的提升,算力需求翻倍现在只需要两个月(图1a)[3]。通过智能架构和软硬件协同设计的结合,我们正在取得越来越显著的进步。以NVIDA的图形处理器(Graphics Processing Units, GPU)为例,其性能自2012年已经提高了317倍,远超摩尔定律的预言(图1b),尽管与此同时,处理器能耗从25W增长到320W。研究与开发阶段不凡的性能提升(图1b,红色部分)昭示着我们可以做得更好[4-5]。但遗憾的是,单靠传统的计算解决方案无法满足长期需求。当想到大多复杂深度学习模型惊人的高训练成本时,这种遗憾尤其明显(图1c)。因此,我们需要新的出路。

论文题目:Brain-inspired computing needs a master plan
详细解读:https://www.aminer.cn/research_report/6286fa4c7cb68b460fbccbb6?download=falseicon-default.png?t=M4ADhttps://www.aminer.cn/research_report/6286fa4c7cb68b460fbccbb6?download=false
AMiner链接:https://www.aminer.cn/?f=cs

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值