深度复盘:AI 与脑科学的错位

本文探讨了人工智能与脑科学之间的错位,指出大脑的复杂神经元结构、多样性和灵活性为AI提供了新的思考方向。与传统AI相比,大脑的动态交互和知识传递方式对通用智能的实现至关重要。科学家们通过跨学科讨论,分享了对生物大脑如何启发AI发展的见解,强调了动态交互计算、非BP算法设计和类脑计算平台的重要性。未来,通过脑科学与AI的交融,有望推动通用人工智能的研究进展。
摘要由CSDN通过智能技术生成

智源导读:在人工智能领域,以智源“悟道2.0”为代表的大规模预训练模型已经取得了非常大的成功,也代表了人类目前技术的最高峰。然后,在迈向通用智能的征途中,除了大数据、大算力和大模型之外,还有一大批科学家正在通过来探索生物大脑的工作机理,模仿生物大脑的认知范式,以求从生物大脑得到更多的启发,来寻找通用人工智能的另外一条路径。

在“2021北京智源大会-人工智能的认知神经基础”上,来自于神经科学、计算科学、认知科学等不同领域的六位科学家,通过跨学科的交叉讨论,分享了他们对于人工智能和脑科学之间相互错位的观点和思考,以期通过跨学科的交叉融合和相互借鉴,推动脑启发的通用人工智能研究。


刘  嘉|清华大学脑与智能实验室教授,智源首席科学家

陈良怡|北京大学分子医学研究所教授,智源研究员

宋  森|清华大学医学院教授,智源研究员

吴  思|北京大学信息科学技术学院教授,智源研究员

余  山|中国科学院自动化研究所的教授,智源研究员

杜  凯|北京大学人工智能研究院助理研究员


整理:智源研究院「人工智能的认知神经基础」重大方向博士后苏杰,张博

01

AI与脑科学的错位

1.1 神经元突触的复杂性与智能程度相关

刘嘉:首先我想请各位老师简单的介绍一下,他们认为脑启发的人工智能应该怎么做,和传统AI有什么区别。先请教一下杜凯老师,对于深度学习的神经元,我们通常都是将其看作简单的一个点,它的功能非常简单,而我们大脑的神经元却具有非常丰富的形态,这种复杂的树突形状在计算上会带来哪些本质上的区别?

杜凯:谢谢。首先我想提到一点,最简单的神经系统,比如一个线虫(C. elegans),它的神经元其实非常简单,真的就像一个点,经过很多年的进化,你会发现一个很有趣的规律,当一个生物越高等,它进化出来的神经元的树突也会越来越大、越来越复杂,但是神经元胞体的大小却几乎不变,这意味着在进化当中树突的复杂性一定以某种方式和智能程度是相关的,这种复杂的树突有什么样计算上的优势,在神经科学里研究了快20年,这个研究领域称为树突计算。

简单来讲,单个的神经元细胞因为有复杂的树突结构,它的计算功能更像一个网络,而不是一个点。最近的一篇Nature Neuroscience的文章进一步提出,因为复杂树突的存在,在大脑里进行feed forward和feed back计算的时候是分开的,这样使得我们大脑有一个很高级的功能,前向(feed forward)和后向(feed back)的传播可以同时进行,比如我们在学习的时候不需要把眼睛闭上,可以一边看东西一边学,我觉得这是和现在AI在本质上非常不一样的地方。

 

1.2 神经元连接的多样性、灵活性,是生物智能的关键

刘嘉:杜凯老师讲了一个生物的神经元本身就是一个网络,本身不是一个点,这种网络会给智能的多样性带来深刻的影响。不仅仅是生物神经元本身,我们还知道大脑的表征和连接结构都有非常丰富多变的特性和灵活性,而传统的AI相对来说比较简单,一般都是前馈(feed forward)神经网络。因此,和传统的AI相比,大脑神经元连接的多样性、灵活性,给生物智能带来更多的可能。那么在这种情况下如何实现计算?就这一问题我想请教一下宋森老师。

 

宋森:我们从神经科学的研究中发现,与现在的人工神经网络有很大的不同。越来越多的研究发现大脑里面有很多的细胞类型,这些不同类型细胞之间的连接,在发育的时候是由基因所决定的。这些先天的连接给之后的学习造成一个先验性,使得在这之上的学习变的容易了,这是生物神经元的多样性给我们的一个启示。

另外,如果大家去记录这些神经元的发放,会发现每次反应都不太一样,有非常多的变化。这种现象从好的一方面讲,它给我们带来了灵活性,作为对比,现在的神经网络,换一种情况的时候就可能会犯错误;但同时也给我们带来一个挑战,就是这个过程中到底什么是不变的,是怎么做计算的。

大家发现,局部的脑区虽然每个神经元的表征不断的在变,如果对整个神经元的群体进行分析会发现里面有一些不变的流形的存在,这种现象也告诉我们,哪怕不是在主动的学习时,可能我们的大脑也一直在不断优化这些表征,从而把信息更好、更高效的处理。

另外,大家还发现,当两个脑区之间通信的时候,它们用的代码,通讯的空间比单个脑区的放电模式少一些。如何把里面的内部表征、通信表征进行优化,也是大脑要考虑的一个问题。大脑通过这种比较模块化和多样性的方法进行表征,具有一些当前神经网络所采用的反向传播算法所不具有的好处,同时也是一个挑战。现在有越来越多的研究者在关心这些问题。

 

1.3 网络层面,人脑识别物体是多通路

刘嘉:我们可以看到在网络层面,大脑的神经网络不仅仅是通过单一规则或者简单规则来实现,而是动态的、通过不同脑区之间的交互实现的,这是在网络内部。但是我们也知道,真正的神经计算不仅仅是网络本身,你给它一个输入,问题就能解决掉了,还有大脑预先储存的先验知识,与输入共同交互才能产生,也就是我们通常所说的Bottom-Up,Top-Down两者之间共同交互,会形成一个动态的过程。而这个动态过程在传统的AI里是缺乏的,这对未来、下一步AI的发展究竟有什么影响呢?我们请教一下吴思老师。

   

吴思:神经计算和深度学习网络差别非常非常大,我今天谈一点,关于动态交互计算的问题。我们现在做深度学习网络,不知道大家注意到没有,比如说目标识别,我们是给深度学习网络呈现一个静止的图像,这个网络输出这是张三还是李四。但是我们神经系统从来不是这样的,静止图像是我们人为制造的一个幻觉,比如我坐在这儿,大家看向我的时候,从输入信号开始就是连续的光流,而不是静止的图像,这些光子到达你的视网膜再转换成电信号,然后一层一层的往后面传,这整个计算过程是一个动态的过程。

说的细致一点,在单个神经元层面上,每个神经元都不断接收输入信息,当超过一定阈值的时候才能发放&#x

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值