![640?wx_fmt=gif](https://i-blog.csdnimg.cn/blog_migrate/f5bb41b6bd3d2463c051a8c08d402108.gif)
![640?wx_fmt=jpeg](https://i-blog.csdnimg.cn/blog_migrate/4d6b95381ad51638887138245dad39eb.jpeg)
如果问一个问题——能够进行深度神经网络计算的芯片有哪些?大家给出的答案可能五花八门:CPU、GPU、DSP、NPU……
过去几年里,电子计算已经成为实现人工智能算法——尤其是深度神经网络模型——最重要的算力支撑。尽管具体的硬件架构各有不同,但一言以蔽之,都是采用了冯诺依曼型的计算原理,即VLSI(超大规模集成电路)的“电子+逻辑”信息处理模式,以复杂的逻辑电路和处理器芯片来完成计算任务。
但是电子方法有其先天缺陷:一是信号之间容易相互干扰,对需要高密度连接的神经网络带来一定的困难;二是能源需求太高,导致计算成本居高不下。
在以AI为主旋律的“数字基建”大规模爆发前夜,在算力上未雨绸缪,自然也就成了学术界和产业界共同关注的头等大事。
最近,明斯特大学、牛津大学和埃克塞特大学的研究人员就共同实现了一项新的计算芯片,采用光学系统来帮助神经网络进行“学习”,以此实现计算、识别等行为。
![640?wx_fmt=png](https://i-blog.csdnimg.cn/blog_migrate/738389f27b1ec3e0b978c4ae13ca3735.jpeg)
不过,无论是光学计算,还是类脑芯片,类似的提法其实在学界早已有之,并且由于自身的局限性一直进展缓慢。那么,光学深度学习芯片的出现,是否真的突破了先天的技术桎梏,又意味着哪些新的产业机遇呢?
光学计算+深度神经网络的
“搅和”历史
在介绍新计算硬件之前,先言简意赅地解答一下大家心中可能存在的困惑——光到底是如何进行计算的?又为什么比电子方法更