人类脑智能算法新理念和新思想

人类脑智能算法新理念和新思想

作者:张佩瑶

文章来源:三平斋(科技)

    类脑智能就是以计算建模为手段,受脑神经机理和认知行为机理启发,并通过软硬件协同实现的机器智能。

“类脑智能系统在信息处理机制上类脑,认知行为和智能水平上类人,其目标是使机器以类脑的方式实现各种人类具有的认知能力及其协同机制,最终达到或超越人类智能水平。

 

研究历史:

 

     人类一直在对自身进行探究,尤其是搞清楚大脑的工作机理,一直是人类的梦想。对于“造脑”,有几个路径,最主要的就是借鉴认知神经科学研究的结果,用计算机模拟人的大脑功能,也就是人工智能。近几年,一场人工智能的研发大赛已经在全球范围内展开。

2011年,“谷歌大脑”工程启动,1.6万片CPU核处理器构建了一个庞大的系统,用于模拟人类的大脑神经网络,通过深度学习等神经网络技术和观看视频等方式,不断学习识别各类事物。

       同年2月,IBM计算机“沃森”(Watson)在美国一个热门的电视智力问答节目中战胜了两位人类冠军选手。IBM已经投入10亿美元研发,希望利用“沃森”系统理解自然语言,最终能够媲美世界上最复杂的计算机——人脑。

       2012年,美国奥巴马政府启动了长达10年的人脑研究项目,绘制大脑图谱;同时,“人类大脑工程”已入选欧盟旗舰技术项目,获得欧盟10亿~20亿欧元科学基金资助,计划在2018年前开发出世界上第一个具有意识和智能的人造大脑。

       2014年5月,“百度大脑”项目启动。在2015年全国两会上,百度CEO李彦宏又提出建立“中国大脑”计划。

      其实“人工智能”并不是近些年才有的概念。香港科技大学计算机系主任杨强教授是2015年国际人工智能大会主席,他对人工智能发展演进进行了归纳。

      目前,信息技术领域,由于存储能力的不断扩展,海量数据的产生,大数据技术的发展,特别是深度学习、人工神经网络等相关领域的飞速进展,让人工智能重新进入一个新的发展阶段。

      类脑计算技术路线总体上可分为三个层次:结构层次模仿脑,器件层次逼近脑,智能层次超越脑。2016年在天津召开的“类脑智能创新论坛”上,中国工程院院士郑南宁就曾提出,类脑智能需要模拟神秘的大脑,但又不能只模拟大脑。

     郑南宁称,从计算科学和工程学观点看,类脑计算是一门以仿生学为基础,但又超越仿生学的工程研究。研究类脑智能计算并非复制人的大脑,而是模拟人类大脑的功能,仅研究人的思维活动或记录脑中所有神经元不可能研制出真正的智能机器。

     专家表示,类脑计算本身需要打破冯·诺依曼结构、把类似大脑的突触做到芯片上,但目前的神经突触芯片还在实验室阶段,不能走向实用。而如果用超级计算机平台来模拟整个大脑的计算能力,需要10的18次方浮点运算能力,这样的超级计算机预计到2019年至2023年才能出现。

     类脑实验室主任、中国科技大学信息学院执行院长吴枫介绍,目前类脑智能的发展面临三大瓶颈,即脑机理认知不清楚、类脑计算模型和算法不精确、计算架构和能力受制约,类脑实验室将围绕这三大瓶颈展开攻关。

姚新教授在 2016 人工智能湖南论坛上报告

 

     近年来,类脑计算已再次引起研究人员和媒体的高度关注,出现了许多关于构建人工大脑、研究类脑计算和一些理解人类大脑如何工作的宏伟计划的建议。但在类脑研究中究竟有哪些重要的科学问题呢? 姚新教授就此讨论了 3 个似乎已被许多类脑计算研究者所忽视的问题。

 

     第一个是关于进化的问题。所有生物脑都是进化的,然而时下的类脑计算研究计划很少涉及进化的作用。在类脑计算研究中应当考虑进化吗?

 

     第二个是关于类脑计算系统的运行环境问题。环境在类脑计算研究中的作用是什么?

 

     第三个是关于身体的作用或脑体相互作用问题。在生物界不存在没有身体的大脑。时下的大脑研究计划很少提及身体的作用,好像含有身体的大脑研究没有什么是要做的一样。事情果真是这样的吗?

 

对上述问题,姚新教授没有提供确切的答案。

      人脑研究计划;美国也有类似的人脑研究计划,也不叫人脑,是叫大脑,包括人脑和机器脑,也是通过奥巴马总统宣布的;在 IEEE 协会里面也有大脑研究计划,就是促进国际上的合作;国内也有很多,包括科学院或者是国家层面都想研究这个大脑。

 

      那么,怎么理解大脑是一方面,另外一方面是怎么把对大脑的理解真正运用到工程中。作为人工智能推进的作用,我今天讲的这些东西倒不是说要在大脑研究或者是人工智能研究当中找到什么答案,我没有答案,但是我有问题,问题也不多,有三个问题,这三个问题跟我的研究背景有关系。

大家在谈到人工智能或者人脑的时候,总是喜欢说做了一个人工智能的东西,但是我做工程或者是科学的人想过没有,所有的大脑都是演化来的,没有一个是人造出来的。现在我们是想人造一个大脑出来,当然这没有什么问题,唯一问题稍微带有一点哲学性。比如说,现在想做一个人工智能的系统,靠人来造,而且现在要做脑计划,想要做一个人工脑,同时又说要从自然脑里面找到启发性的东西,自然的大脑都是演化出来的,不是造出来的。所以这里面的逻辑好像比较奇怪,虽然对一个产品感兴趣,却忽略了产品是怎么来的。这种方法对不对是一个问题,如果只对产品感兴趣,却不管产品怎么来的,只研究将来要研发的产品研发的东西。

 

     在神经网络研究里面,有一种很简单的神经网络叫层次网,即一层一层的网络。最简单的三层网,一个输入网,中间的叫做引层,一个是输出的层。这个网络像所有的科学家那样可以做很聪明的事情,每个输入要么是 0 要么是 1,网络学习能够判断 0101 这串数字是偶数还是奇数。这个事情说起来很简单,但是如果你只能给计算机一个例子,通过学习,将来的输入只要是偶数就给1,只要是奇数就给0。既然这个问题比较难,研究人员就想用设计人工神经网络来完成这个工作。的确,这是人设计出来的神经网络,非常的规则。而且非常好理解它,因为只有三层。这里面是八个输入,然后中间还设计了八个神经网络的结点,输出的判断就是 0101。所以人设计的东西规整性很好,也很好理解。但是,假定不靠设计神经网络,而用人工演化的方式。让其自己演化出一个人工神经网络,结果和人工设计出来的结果有什么一样和不一样的地方呢?这个演化的结果是九个输入,而不是八个输入,跟之前的结果不太一样,因为层次不是特别的明确,没有直接的连接。

 

    通过演化计算发现,一个神经网络的结构和人算出来的网络结构实际上有很大的不同,可以总结成几点:

 

    第一点可以演化计算得到的网络非常紧凑,即这个输入不是真正的神经源,真正的神经源就用了四个,中间设计的神经源个数总是要跟我输入的个数一样,所以这个神经网络特别大,这是真正演化发现出来的问题。

 

   第二点事通过自动演化发现的神经网络,程序会比较多一点,而不像人工那么规整,除了中间这一层就没有了。

 

   第三点是这个结构出来以后,有一点杂乱无章,所以左边和右边是不对称的,不好理解,这里的问题就比较有意思了,人设计出来的所谓人工神经网络和真正演化出来的人工神经网络都解决同样的难题,但结构不一样。这就带来了一个新问题,假定很幼稚地看成所谓小大脑,这个小大脑完成了测算的问题,但是这里面没有结构,矛盾在哪里?这很奇怪,这里做研究就有趣了,怎么探讨这个问题呢?可以看到,现在所谓人工智能或者是类脑计算、人工神经网络做的东西,可以下象棋或者是下围棋,拿世界第一。过两天又看到人工智能可以人工识别图像,几百万的图像也可以找到。这些事情跟人要做的事情是两码事,一个大脑负责处理所有事情,而目前的所有神经网络系统只专注一件事情。Alpha Go 只会下象棋,不能识别图像。这个是非常奇妙的现象,大家都说要做智能,但是从人这里找到的灵感,一到人工智能这个世界就变了味道。现在的人工智能系统或者是人工神经网络中,一个系统就做一件事,做的非常好,非常专。但是一个大脑要做多件事,所以如果一个系统要做多件事,结构会有什么影响?这就和大脑模块要干什么事情有关系,静态环境还是动态环境又不一样,这里又引到我想讲的第二个问题了。

很多研究者虽然对人工智能或者是类脑计算感兴趣,但是很少考虑这个人工智能系统能干什么。光讲人工智能,不讲人工智能系统能干什么,是缺了某些东西的。人工智能和人工智能系统之间还是有区别的。

 

     原来想讲的一个细节跟第一个问题一样,大家至少在学校里面先做个小实验。建立起一个人工网络的系统,就让它学一件事情,可以是图像识别或者是其他的。只让它做这一件事,然后让同样的神经网络系统同时学两件事,再观察同样的初始状态,最后学出来神经网络结构有什么不一样,会有非常有趣的发现。这个实验可以重复进行,一个神经网络在完成多项工作后,模块化结构就会很明显地显示出来。无论是用什么标准去衡量模块,如果你让一个神经网络完成一项工作的话,某些模块功能并没有完全发挥出来。这就是说在构造人工智能系统的时候不能光讲系统,一定要讲这个系统要干什么,以及干一件事还是两件事,是在静态环境里面还是在动态的环境里面。

 

第三个问题——人工智能的载体

 

     这个实际上更简单,就是身体的问题。这个问题也很特别,所有讲人工智能的人,经常不讲人工智能系统最后放在什么地方。但是所有的大脑都是在身体上面的,所以身体实际上是蛮重要的。研究当中,四肢和六肢对大脑是有影响的。为什么研究人工智能的时候往往只研究人脑,而不研究身体呢,主要是因为我们做人工智能的研究的时候的确需要特别发达的大脑。

 

     我们做过一个人工实验,就是人工造一个可以游泳的线虫,这个线虫是一节一节的,然后每一节的结构也非常简单,每个小圆圈就代表一个神经源。这个神经源有一些是来控制运动的,肌肉可以收缩可以伸展。然后线虫会怎样运动呢?可以想象线虫像波浪型往前游,就是靠一边肌肉收缩,一边肌肉收缩。一个时间段后,收缩的地方就伸展,伸展的地方就收缩,慢慢往前游。然后让这个人工系统直线游,从右边游到左边,游的越快越好,但是不是从人的思维角度去设计,就是把线虫放在水里面自己去游,每一次游的快慢有一个反馈,记录单位时间里面游了多少厘米。我想观察的是我给这个线虫不同的任务和不同的体态时,这个神经网络会怎么出现,所以给这个线虫分配了两个任务。

 

     第一个任务就是让这个线虫沿直线从A游到B,游的越快越好。设计神经网络控制器时,要使这个线虫游得越快越好,实际上的控制器非常简单。画出来的几个小圆圈相当于神经源,神经源的位置是可以调的。神经源的位置调的不一样,每一次收缩和伸展的力量也不一样。我们研究神经的结构是什么样的,这只是其中一节,右上角好像一个小数字,0、10、200、300 到 1190,这是我表示用这个算法来演化人工神经网络的时候多少代,第 0 代表示初始化,初始化不知道怎么设计,所以所有神经源的位置在这个图上面都是随便放的。到了第 10 代的时候,结构开始有点出现了,因为发现神经源的连接会发展两大体,左边的神经源也有连接,右边的神经源也有连接。到了 30 代、200 代、300 代的时候,你就发现有一定的规律出来,神经源之间,左边会连起来,右边连起来,这之间没有直接的联系。这个不是人想出来的,是人研发出来的,到了 1190 代的时候,非常规整对称的结构就出来了,就是这两边的小距离几乎是一样的,这也不是人设计出来的,而是发现出来的。所以这蛮有趣的,刚开始没有给演化算法任何的指示,只是给定了这样的线虫结构,最后出现的神经网络却是非常对称的一个神经网络。

 

     第二个任务是想研究这种情况下,神经网络和体态的关系。把线虫的体态限制住,但任务还是要直着往上面走,从A到B。大家就可以想像,平常要这样子波浪形往前走的话,在这种体态下是做不到的。因为这样走就走右边去了,不会往前走。但是我做实验的时候,不告诉它这个算法,只告诉它这是现在的身体结构有个地方被限制了。身体要往一边歪的话,短的一面收缩,长的一面伸长,肯定不是对称的。如果是对称的,就不会顺着头的方向往前走。这是很明显的一个小例子,说明设计一个人工神经网络或者是一般性探索智能系统,实际上是跟物理的体态有密切关系。

 

    最根本的一点就是研究人工神经网络的时候,一定要考虑最后这个神经网络是放到什么样的物理系统。比如说,你要研究这个机器人本身,同时又要设计控制这个机器人的系统,那么这个机器人的体态跟控制是有密切关系的,不能分开考虑。

这三个问题总结起来就是三句话:

 

   一是所有生物界的大脑都是演化而来的,不是上帝造出来的。现在要设计人工大脑的时候,是不是应该多考虑一点演化的过程,从演化的过程中应该可以学到一点东西。

 

   二是至少在自然界里面,人脑要能够完成多项工作,而且这是在动态环境或者是不确定性环境里面进行的。而现在做的很多的人工智能系统都是把定义定在非常窄、非常具体的某个功能上,比如识别图像或者是下棋之类的,这两者实际上对将来真正设计的人工智能系统有着非常不一样的影响,这个问题值得我们好好考虑。

 

   三是所有的大脑在生物界都有一个载体,那就是身体,不存在光有大脑没有身体的东西。这对于我们将来构造智能又提出一个新的挑战,就是在设计人工智能系统的时候要把载体考虑进去。

     
                                                                                                                                                                            (本文摘抄与网络)

类脑计算机来袭

      人们把计算机叫作“电脑”,但实际上,目前的电脑相距人脑还是有很大距离的。不过,科学家们说,马上,差距又要缩小了。我们即将迎来更像人脑的电脑。

我们用Word软件来进行文字编辑工作。要写下“当我们撰写这篇文章时”这句话,计算机需要将Word文档转换成0和1表示的二进制机器语言,并且从中央处理器的暂存器通过一组数据传输线,转移到其他的物理存储单元。然后,这些数据会被处理单元转换成字符,并在屏幕上显示。为了防止这句话在计算机电源关闭后消失,表示这个句子的数据又将通过数据线传输并保存到更稳定的非易失性存储器中,例如硬盘。

     处理器与存储器之间要进行两次数据交换,因为现阶段的处理器没有存储功能,而存储单元又不能计算。这种处理器与存储器的分工方式是目前计算机的标准做法,即使在拥有多个处理器、可以进行最快速计算(称为并行计算)的高端计算机中,也是如此。问题在于,对于每个处理器来说,这种存储器与处理器之间的数据交换,限制了处理效率。

 

       科学家一直致力于设计一种同时具备计算和存储功能的元件。这就意味着要替换现在标准的计算机电路元件,即将晶体管、电容和电感替换成名为忆阻器、忆容器和忆感器的新元件。目前,研究人员已经制备出了新元件的样品,可能很快就能将这些新元件组装成一种新机器——“记忆计算机”。

   像人脑一样运行

       记忆计算机并不是第一种将计算和存储融为一体的信息处理设备。一直以来,人类大脑就是以这种方式处理信息的。所以,记忆计算机是站在人类的肩膀上,其原型就是来自于大脑这个快速、高效的器官。

      虽然,用Word软件编辑一个句子时,计算机内部执行数据交换,只会消耗一丁点的能量,花费的时间也非常少。但想象一下,全球范围内的计算机反复执行着这样的操作,这将是一笔多大的能耗呢?但对这一问题,并不能通过不断地缩小晶体管的尺寸来解决。

      一些科学研究也因为这些急需解决的问题屡屡碰壁。一些只能通过密集计算解决的重要研究课题,都需要更强大的计算能力,例如构建全球气候变化模型等。通过避免代价高昂的、耗能耗时的中央处理器与内存之间的数据交换,记忆计算机可以大幅降低能耗。

      当然,记忆计算机并不是第一种将计算和存储融为一体的信息处理设备。一直以来,人类大脑就是以这种方式处理信息的。所以,记忆计算机是站在人类的肩膀上,其原型就是来自于大脑这个快速、高效的器官。

     许多研究表明,人类大脑平均每秒可执行1亿亿次操作,所需能量只有10~25瓦特。如果让一台超级计算机来完成同样的工作,需要消耗的能量超过人脑的1000万倍。除了能耗巨大,在处理一些模式识别等复杂任务时,比如从街道上嘈杂的汽车声中分辨出狗吠声,计算机也远不及我们的大脑。

不同于我们目前的超级计算机,人脑完成计算的过程并不是分在两处进行,而是在相同的神经元和神经突触中完成。更少的信息交换,意味着能量消耗得更少,使用的时间也更少。计算机执行单次计算操作比人脑速度要快,但做到这一点,需要毫无技巧地利用计算机内的全部晶体管来执行计算任务。

记忆计算的三大元件


 

         在材料科学不断进步的基础上,人们终于能为计算机制造出大小合适而又能将计算功能和记忆功能集成在一起的元件。

      记忆计算元件能完成这样的任务:处理信息,并在断电后保存信息。这些新元件之一就是忆阻器。忆阻器根据当前流经的电量更改状态,较宽的管道意味着较小的电阻,而较窄的管道意味着较大的电阻。如果将电阻看作一个数值,电阻的变化当作一个计算过程,那么忆阻器就构成一个电路元件,可以处理信息并在电流消失后记住当前状态。这样,忆阻器将计算单元与记忆单元集成在了一起。

      科学家们发现,这些元件可以由各种各样的材料制成,大小可以仅有几纳米。极小的尺寸意味着,这类元件可以更密集地集成在一起,几乎可以轻易装进任何类型的小产品中。而且,这类元件也可以用半导体制造设备来生产,因此可以实现规模化生产。

另一种用于记忆计算机的关键元件是忆容器。常规电容器是一种存储电量的元件,无论存储了多少电量,电容器都不会改变状态或电容值。而忆容器不仅能存储电量,还可以根据过去的电压来改变电容。这就赋予了忆容器存储和处理信息的双重能力。此外,因为忆容器可以存储电量,这些能量在计算过程中可以循环利用,有助于减少整机的能量消耗。

     一些用成本相对较高的铁电材料制作的忆容器已经进入市场,用作数据存储装置。但是,很多实验室仍然致力于研发更好的技术,使用成本更低的硅材料来制造该元件,以便使价格低到整台计算机都能用得起这种元件。

第三种用于记忆计算的元件是忆感器。忆感器有两个终端,像忆容器一样存储电量同时又像忆阻器一样让电流通过。同样,忆感器也已有一些产品。只是因为这些产品依赖磁性大线圈,所以目前忆感器的体积还相当大,难以用于小型计算机。但是,就像几年前忆阻器的研制过程一样,材料科学的研究进展将会在不久的将来打破这种局面。

 

记忆计算的现实路径

      商业化的记忆计算芯片尚未进入市场,还需要完成测试、整合和设计操作系统等一系列工作。

      现今的并行计算机是通过大量的处理器,同时处理同一问题的不同部分,多个处理器之间通过信息交换,得出一个最终的解。显然,对于每个处理器来说,在与其他处理器交换信息时,仍然需要消耗很多能量和时间。而对于记忆计算来说,这些都不需要。因为不需要在单个或多个处理器之间进行来来回回的计算与存储,所以计算速度和能耗大大降低。

      尽管拥有明显优势,而且部分记忆计算元件已经拥有实验样品,但商业化的记忆计算芯片尚未进入市场。现阶段,一些初始版本的记忆计算机正由科研单位及少数几个制造商进行测试,以检验这些设计是否足够稳定可靠。

       科学家们认为,一些记忆计算设计在不久的将来就会得到应用。因为所有的元件都可以用现有设备制造,无须技术上的重大跨越。目前需要做的只是开发新的控制软件,因为目前人们尚不清楚,在记忆计算机上,使用什么样的操作系统最合适、最有效。

        科学家还希望找到一个最好的方法,将这些记忆元件整合进现有计算机。以下做法可能是一个较好的方案,即使用传统处理器来处理简单任务,例如本文开头提到的用Word处理语句,而用记忆元件去处理复杂、耗时的任务。我们要做的是搭建相关系统并测试,然后再搭建、再测试,直到把记忆元件成功整合进现有计算机。

总结:      这项技术的远大前景确实激动人心。在构建和测试完成之后,计算机用户可能会拥有很小的装置,也许小到可以握在手中,却可以解决诸如模式识别、为地球气候变化建模等非常复杂的问题。                                                                                                                                                                                                                                                                                                                                                             该文链接http://www.cnblogs.com/zwz123456/articles/6900371.html 

 

 

转载于:https://www.cnblogs.com/zwz123456/articles/6900371.html

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值