光学计算浮沉50年,AI催化光电混合新机会

光学计算在AI领域的应用日益受到关注,光电混合系统有望解决传统GPU在低功耗、实时计算上的局限。文章回顾了光子计算的历史,探讨了光学计算的优势,如高维度并行计算,以及光电混合系统在成像和显微技术的应用前景。
摘要由CSDN通过智能技术生成

光学计算浮沉50年,AI催化光电混合新机会

图片图片图片出处:Nature

本文作者:武文浩

越来越多的人工智能任务需要专门的加速器来保证快速、低功耗地执行运算。光学计算系统由此进入了更多人的视野。

光学计算系统也许能够满足这些特定领域的需求,尽管经过了半个世纪的研究,通用光计算系统还没有成为一种成熟的、实用的技术。

而人工智能推理任务,特别是视觉计算应用,被认为可以为基于光学和光子系统的推理提供机会。从这个角度出发,Nature 近日刊登的一篇 Perspective 文章 Inference in artificial intelligence with deep optics and photonics ,很好地回顾了半个世纪以来光子计算(包括硬件和算法)在人工智能中的应用、前景和挑战。

这篇文章由来自斯坦福大学、麻省理工学院、加州大学洛杉矶分校的法国、德国以及瑞士的研究人员共同撰写,以下为 “数据实战派” 对该论文的重点解读。

全球算力争霸赛

算力,这一衡量计算设备及算法之运算能力的指标,如今已从学术界中探讨的一个概念,演变为了全球范围内大国 “军备竞赛”。

无论是自动驾驶、机器人视觉处理、智能家居,还是遥感技术、高精显微设备、物联网、监控及国防,深度学习在上述这些包含天文级数据量的领域中被广泛应用。

但如要有效地运行越来越复杂的高级算法,仅靠 GPU 和常规加速器(通常所说的 AI 芯片)现有的并行运算能力以及带宽是不够的。

在算法的执行过程上,深度学习可被简要分为两个阶段,一是训练阶段,二是推理阶段,两者间存在很大差异。

在训练阶段,深度神经网络(DNN)需要大量带有标注的示例,然后针对某个特定任务,使用迭代方法优化该 DNN 的参数。训练完成后,可使用该 DNN 来执行推理。当前,很多技术方案都是将 GPU 用于算法的推理阶段。但由于高功耗、时延、成本等局限,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值