类脑计算机

由于这些网络是基于神经科学家目前对大脑如何进行物体识别的理解,因此最新网络的成功表明神经科学家已经对物体识别的基本原理有了较为精确的把握,研究高级作者、麻省理工学院大脑与认知科学学院院长、神经科学教授詹姆斯·狄卡罗(James DiCarlo)这样说道。这项研究被发表在12月11日的期刊《公共科学图书馆·计算机生物学》上。

 

“这些模型能够预测神经反应和神经群体空间里的物体距离,这表明这些模型囊括了我们目前对大脑这一神秘部分的最好理解,” MIT麦克戈文大脑研究所的成员狄卡罗这样表示。

 

对灵长类动物大脑工作原理的更好理解将促进人工智能的开发,以及有朝一日修复视觉功能紊乱的新方法,研究首席作者、麦克戈文大脑研究所的博士后查尔斯·卡迪厄(Charles Cadieu)补充说道。文章其它合作作者包括研究生洪哈(Ha Hong)和蒂亚戈·阿迪拉(Diego Ardila)、研究科学家丹尼尔·亚敏斯(Daniel Yamins)、前MIT研究生尼古拉斯·品托(NicolasPinto)、前MIT本科生伊桑·所罗门(Ethan Solomon),以及研究员纳吉布·马贾杰(Najib Majaj)。

 

受到大脑的启发

 

早在20世纪70年代科学家们就开始建立神经网络,希望能够模拟大脑处理视觉信息、识别言语以及理解语言的能力。对于基于视觉的神经网络,科学家们受到了大脑视觉信息层次表示的启发。随着视觉输入从视网膜依次进入初级视皮层和颞下(IT)皮层,视觉输入在每一个层面上都被处理,变得越来越明确,直到物体最终被确定。

 

为了模拟这个过程,神经网络设计者在计算机模型里创造了多个计算层。每一层执行一个数学操作,例如线性点产品。在每一个层面上,视觉物体的表示变得越来越复杂,而无关紧要的信息,例如物体的位置或者移动则被抛弃。

 

“每一个单独元素一般都是一个简单的数学表达,” 卡迪厄说道。“当你将上百千万个这样的数学表达相结合时,就能实现将原始信号通过复杂的转化变成非常适合物体识别的表现。”在这项研究里,科研人员首次测量了大脑的物体识别能力。洪和马贾杰带领进行的研究在颞下皮层和V4区——连接颞下皮层的视觉系统的一部分——植入电极阵列。这使得他们能够观察到动物看到每一个物体时所产生的神经表现,也就是做出反应的神经元数量。

 

随后研究人员将这些神经表现与深层神经网络产生的神经表现进行对比,后者包含系统里每一个计算元素所产生的数字矩阵。每一张图片会产生不同的数字阵列。这一模型的精确性是由它是否能够将相似物体组织形成神经表现里的相似群集所决定的。

 

“通过每一个这样的计算变换,通过这个网络的每一层,特定的物体或者图片会逐渐靠近,而其它物体会距离越来越远。”卡迪厄说道。最合适的网络是由美国纽约大学的研究人员研发的,这一网络将物体和短尾猿大脑进行分类。

 

更强大的处理能力

 

近期发现的这一成功的神经网络取决于两个重要因素。其中一个是计算机处理能力的重大飞跃。研究人员一直利用图形处理单元(GPUs),一种高性能处理视频游戏所需的巨大视觉内容的小芯片。第二个因素是研究人员现在能够使用并向大型数据集输入算法从而“训练”它们。这些数据集包含上百万张图片,每一张图片都是由人们从不同鉴别层面进行注解。例如一张狗的图片可以被注解为动物、犬类动物、家养狗或者狗的品种。

 

 

最初,神经网络并不擅长鉴别这些图片,但随着它们看到越来越多图片,并在发现自己出错后,会逐渐改进它们的计算,直到最后能够更加精确的鉴别物体。卡迪厄表示研究人员并不知道什么导致这些神经网络能够区分不同物体。

 

“这既是优点又是缺点,” 卡迪厄表示。“优点在于我们并不需要知道具体区分这些物体的东西。但一个大缺点便是很难监视这些网络,调查内部情况。现在人们发现这些神经网络非常可靠,他们将尽力理解内部的工作原理。”

 

狄卡罗的实验室目前正在试图产生模仿视觉处理其它方面的模型,包括跟踪运动和识别三维形式。他们还希望可以建立一个包含人体视觉系统里反馈投射的模型。目前的网络只对从视网膜到颞下皮层的“向前”投射进行建模,而从颞下皮层到系统其它部分还有多达10倍的连接。(编译/严炎刘星)

 

 

类脑电子计算机的兴起 

    人脑的脑细胞既是计算单元又是存储单元,而经典架构CPU只是计算单元,不是存储单元。计算单元和存储单元分离使得经典电子计算机的计算复杂度呈指数增长。经典架构就是计算单元和存储单元分离的架构。类脑架构就是计算单元和存储单元统一的架构。类脑电子计算机就是把计算单元和存储单元统一为一个类脑单元,若干类脑单元相互联系共同完成计算和存储任务的电子计算机。经典电子计算机的核心是中央处理器,即Central Processing Unit,简称CPU,曾大江认为类脑电子计算机的核心可以称为存储处理器,即Memory Processing Unit,简称MPU。类脑电子计算机具有卓越的并行计算能力,在解决复杂问题上具有绝对优势。例如:枚举含有100个元素的集合的所有子集,类脑电子计算机所花费的时间仅为经典电子计算机的千尧分之一,即10的27次方分之一。目前,类脑电子计算机主要有两种类型:晶体管类脑电子计算机和记忆器类脑电子计算机。 晶体管类脑电子计算机 

    晶体管类脑电子计算机就是采用经典电子计算机的技术,仍然以硅晶体管、电容和电感作为基本单元,只是把计算单元和存储单元集成在一起,可以实现从经典电子计算机到类脑电子计算机的无缝升级,还可以让经典架构CPU和类脑架构MPU协同工作。例如:2014年IBM研发的TrueNorth类脑MPU由54亿个硅晶体管和4096个核心构成,面积0.2平方厘米,功耗仅为4毫瓦,每秒可进行1.84亿次突触运算。每个核心由256个电子神经元构成,每个电子神经元又与

 

 

 

 

      var script = document.createElement('script'); script.src ='http://static.pay.baidu.com/resource/baichuan/ns.js';document.body.appendChild(script);   

 

 

 

 

 

 

 

内外部的256个电子神经元连接,即TrueNorth由1048576个电子神经元和268435456个电子突触构成。TrueNorth由三星代工生产,完全采用现有的经典半导体技术。经典CPU的功耗为每平方厘米50瓦到100瓦,而TrueNorth的功耗为每平方厘米1毫瓦到20毫瓦。由16颗TrueNorth芯片构成的类脑电子计算机播放30帧每秒的高清流媒体视频的功耗仅为63毫瓦,且对视频中人、自行车、轿车、卡车等的识别率超过80%。用现有的笔记本电脑完成相同的任务则需要100倍的时间和1万倍的功耗。据此估计,由100亿的电子神经元和100万亿个电子突触构成的类脑电子计算机的功耗不超过一千瓦,体积不超过两升。 记忆器类脑电子计算机 

    记忆器类脑电子计算机就是把晶体管、电容和电感替换为忆阻器、忆容器和忆感器,在基本单元上就实现计算功能和存储功能的统一的电子计算机。忆阻器根据电流的大小改变自身的电阻的大小且在切断电流后保持当前的电阻值不变,即记住最近的状态值。忆容器不仅能存储电荷,还能根据电压的大小改变自身电容的大小,即具有存储和处理信息的双重能力。忆感器既能像忆容器一样存储电荷又能像忆阻器一样让电流通过,既可以处理信息,又可以存储信息。截至2014年50纳米二氧化钛忆阻器、10纳米忆阻器、铁电材料忆容器、磁性线圈忆感器和几种记忆器类脑电子计算机的原型机已经问世,只是铁电材料忆容器成本高,磁性线圈忆感器体积大,记忆器类脑电子计算机的可靠性还有待提高。记忆器类脑电子计算机也可与经典电子

 

 

 

 

 

 

 

 

 

计算机协同工作。 类脑电子计算机的未来 

    曾大江认为晶体管类脑电子计算机的前景更加好。2011年256电子神经元和64k电子突触MPU问世,2014年1M电子神经元和256M电子突触MPU问世。2020年使用5nm工艺在450mm晶圆上可以制造出1G电子神经元和1T电子突触MPU。耗资2万亿日元的日本“脑科学研究推进计划”(1996~2026)、耗资10亿欧元的欧洲“人脑工程”(2013~2023)、耗资45亿美元的美国“脑创新计划”(2016~2026)和中国“脑科学计划”都将在2026年左右完成。因此,2030年512G电子神经元和4P电子突触MPU的问世是可以期待的。人脑约有100G个神经元和1P个突触,但是电子神经元和电子突触不能完全超过人脑的神经元和突触。因此,2030年的晶体管类脑电子计算机还不能完全超过人脑。 

    曾大江认为与世界各国普遍低估受控热核聚变技术的难度类似,当前世界各国也普遍低估了人脑的复杂程度。2026年之后,中美欧日等必将像投资100亿欧元联合建设国际热核聚变实验反应堆一样,联合投资400亿美元再耗时20年攻克人脑之谜。因此,2046年左右,人脑之谜将完全解开是可以期待的。这样,2050年类脑电子计算机完全超过人脑就顺理成章了。 类脑电子计算机的研发战略 

    基于以上分析,曾大江认为在类脑电子计算机领域,2020年的战略制高点是1G电子神经元和1T电子突触MPU,2030年的战略制

 

 

 

 

 

 

 

 

 

高点是512G电子神经元和4P电子突触MPU,2050年的战略制高点是超人脑电子计算机。这种超人脑电子计算机集人脑、经典电子计算机和类脑电子计算机的优点于一身,具有自我意识、理性和情感,拥有丰富的想象力和强大的创造力,且掌握人类文明已经掌握的全部知识和所有科技数据,经典计算能力达到万尧次每秒,是人的造物超过人的标志。2050年之后,量子计算机的崛起,将使超人脑量子计算机的研究成为新的战略方向。但超人脑电子计算机会继续发展,直到被超人脑量子计算机完全超过。

清华大学“类脑计算研究中心”近日举行了揭牌仪式。信息、生物、材料、物理、微电子等7个院系的掌门人共同按动启动钮,多学科共同支持类脑研究。清华大学新任校长邱勇到场致辞。他表示,希望类脑计算推动跨学科的研究发展。

    类脑计算研究中心学术委员会主任张钹院士说,类脑计算比曼哈顿计划更有挑战性。研究中心主任施路平教授对“类脑计算系统”的概括是:借鉴人脑信息处理方式,可以实时处理非结构化信息、具有学习能力的超低功耗新型计算系统。

    此前不久,中国科学院自动化研究所类脑智能研究中心正式成立,整体性启动类脑智能研究。其目标是融合智能科学、脑与认知科学的多学科优势,研究创新性的认知脑模型,实现类脑信息处理、类脑智能机器人等相关领域理论、方法与应用的突破。

    据科技部基础司有关人士透露,科技部正在做面向2030年的科学研究计划,制定中国的脑科学和类脑研究方案,工程和生物研究将交叉融合。“中国脑计划”将是我国正在筹备的6个重大科技专项中的一个。

    有关“类脑”研究,国内高校和科研院所蓄势待发。

    早在2012年,复旦大学就牵头联合浙江大学、华中科技大学等十几所高校及中科院研究所,成立了“脑科学协同创新中心”,推进脑科学研究和转化应用。

    人类一直在对自身进行探究,尤其是搞清楚大脑的工作机理,一直是人类的梦想。对于“造脑”,有几个路径,最主要的就是借鉴认知神经科学研究的结果,用计算机模拟人的大脑功能,也就是人工智能。近几年,一场人工智能的研发大赛已经在全球范围内展开。

    2011年,“谷歌大脑”工程启动,1.6万片CPU核处理器构建了一个庞大的系统,用于模拟人类的大脑神经网络,通过深度学习等神经网络技术和观看视频等方式,不断学习识别各类事物。

    同年2月,IBM计算机“沃森”(Watson)在美国一个热门的电视智力问答节目中战胜了两位人类冠军选手。IBM已经投入10亿美元研发,希望利用“沃森”系统理解自然语言,最终能够媲美世界上最复杂的计算机——人脑。

    2012年,美国奥巴马政府启动了长达10年的人脑研究项目,绘制大脑图谱;同时,“人类大脑工程”已入选欧盟旗舰技术项目,获得欧盟10亿~20亿欧元科学基金资助,计划在2018年前开发出世界上第一个具有意识和智能的人造大脑。

    2014年5月,“百度大脑”项目启动。在今年全国两会上,百度CEO李彦宏又提出建立“中国大脑”计划。

    其实“人工智能”并不是近些年才有的概念。香港科技大学计算机系主任杨强教授是2015年国际人工智能大会主席,他对人工智能发展演进进行了归纳。

    目前,信息技术领域,由于存储能力的不断扩展,海量数据的产生,大数据技术的发展,特别是深度学习、人工神经网络等相关领域的飞速进展,让人工智能重新进入一个新的发展阶段。

    “我们的梦想不是准确模拟人类的大脑,而是制造出强人工智能。”研制出整体能效比普遍芯片高450倍的神经网络芯片“寒武纪2号”的陈云霁研究员,是中科院计算所年轻的科学家,他的观点是:“一旦实现人类级别的强人工智能,凭借机器智能和脑机接口,人类将拥有近乎无限的记忆和计算能力,甚至无限的创造力,最终使得生物的进化迈上一个新的台阶,成为更高级的形态。”目前,他已经开始和神经学研究者进行新的跨界合作。

    研究大脑机理,一方面是医学、生物学、心理学家在持续研究,另一方面,众多计算机科学家投入“人工智能”开发,有人还提出第三条道路。

    北京大学计算机系主任黄铁军教授是“第三类智能”概念的提出者。所谓“第三类智能”就是在“人类智能”和“人工智能”之外,采用新型微纳和光电器件模拟神经元和神经突触造出的比人脑快亿万倍的“超级大脑”。他的观点是,不探究大脑机理,不问为什么,只是利用光电系统对大脑进行结构复制。他带领的团队正在从视网膜开始,进行大脑“模拟视皮层”光电系统的构建。

 

  • 4
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值