人工神经网络实验的新理论:大脑可能通过评估记忆的有效性来指导其存储位置...

f7e81edfc5fa63957172ad26b8400a70.jpeg

来源:ScienceAI

编辑:绿萝

记忆是一个科学谜团。我们大脑中共存着多种类型的记忆:过去经历的情景记忆、事实的语义记忆、短期和长期记忆等等。它们通常具有不同的特征,甚至似乎位于大脑的不同部分。但目前尚不清楚记忆的哪些特征决定了如何或为何应以这种方式对它进行排序。

现在,一项由人工神经网络实验支持的新理论提出,大脑可能通过评估记忆在未来作为指导的可能性来对记忆进行排序。特别是,它表明,许多对可预测事物的记忆,从事实到有用的重复经历——比如你经常吃早餐或步行去上班——都保存在大脑的新皮质中,在那里它们可以促进对世界的概括。不太可能有用的记忆——比如你在一次聚会上喝的那种独特饮料的味道——被保存在被称为海马体的海马形状的记忆库中。根据记忆的有用性和普遍性,以这种方式主动分离记忆,可以优化记忆的可靠性,帮助我们应对新的情况。

f80cd8ec8256ef1099693debccc4fe40.jpeg

论文链接:https://www.nature.com/articles/s41593-023-01382-9

新理论的作者——霍华德休斯医学研究所 Janelia 研究园区的神经科学家 Weinan Sun 和 James Fitzgerald、伦敦大学学院的 Andrew Saxe 及其同事,最近在《Nature Neuroscience》发表的一篇论文《Organizing memories for generalization in complementary learning systems》中描述了这一理论。它更新并扩展了公认的观点,即大脑有两个相互关联、互补的学习系统:快速编码新信息的海马体和逐渐整合新信息以进行长期存储的新皮质。

斯坦福大学认知神经科学家 James McCleland 率先提出了记忆互补学习系统的想法,但并未参与这项新研究,他表示,该研究「解决了泛化的各个方面」,而他自己的团队在上世纪 90 年代中期在提出该理论时并未考虑到这一点。

8d716ec182d990f8bf3a2298577bc0f7.jpeg

这项新研究的三位合著者——(左起)神经科学家 Nelson Spruston、Weinan Sun 和 James Fitzgerald 在 Janelia 研究园区。(来源:quantamagazine)

至少从 20 世纪 50 年代初起,科学家们就已经认识到记忆形成是一个多阶段的过程,部分原因是他们对一位名叫Henry Molaison 的患者进行的研究,该患者几十年来在科学文献中只被称为 H.M.。由于他患有源自海马体的无法控制的癫痫发作,外科医生通过切除大部分大脑结构来治疗他。此后,患者在大多数方面都显得很正常:他的词汇量完好无损;他保留了童年的记忆,还记得手术前生活的其他细节。然而,他总是忘记照顾他的护士。在她照顾他的十年里,她每天早上都得重新介绍自己。他已经完全丧失了创造新的长期记忆的能力。

Molaison 的症状帮助科学家发现,新的记忆首先在海马体中形成,然后逐渐转移到新皮质。有一段时间,人们普遍认为所有持久记忆都会发生这种情况。然而,当研究人员开始看到越来越多的记忆长期依赖于海马体的例子时,很明显还有其他事情正在发生。

为了理解这种异常现象背后的原因,这篇新论文的作者转向了人工神经网络,因为大脑中数百万个相互交织的神经元的功能极其复杂。Saxe 说,这些网络是「生物神经元的近似理想化」,但比真实的网络要简单得多。与活神经元一样,它们具有接收数据、处理数据的节点层,然后向网络的其他层提供加权输出。正如神经元通过突触相互影响一样,人工神经网络中的节点根据其他节点的输入调整其活动水平。

d4f2099e8e7095364a52ddf59b3a5c37.jpeg

这项新研究的合著者、伦敦大学学院的安德鲁·萨克斯指出,他们的工作是基于人工神经网络的概念的一个实例,该网络提供了对活体大脑如何工作的见解。(来源:quantamagazine)

该团队将三个具有不同功能的神经网络连接起来,开发了一个计算框架,他们称之为教师-笔记本-学生(teacher-notebook-student)模型。教师网络代表了有机体可能所处的环境;它提供了经验的投入。笔记本网络代表海马体,快速编码老师提供的每一次体验的所有细节。学生网络通过查阅笔记本中记录的内容来训练老师提供的模式。「学生模型的目标是找到神经元——节点——并学习连接[描述]它们如何重新生成活动模式,」Fitzgerald 说。

253747ecc2ddf5e2771010993f3a5c71.jpeg

系统整合的神经网络模型。(来源:Nature Neuroscience)

笔记本网络中记忆的重复重播通过纠错将学生网络引入了一般模式。但研究人员也注意到了这个规则的一个例外:如果学生接受了太多不可预测的记忆(与其他记忆偏差太大的噪音信号)的训练,就会降低学生学习广义模式的能力。

从逻辑的角度来看,「这很有道理,」Sun 说。他解释说,想象一下在你家里收到包裹:如果包裹里有一些对未来有用的东西,「比如咖啡杯和盘子」,那么把它带回家并永久保存起来听起来很合理。但如果包装中包含万圣节派对的蜘蛛侠服装或促销手册,则无需将房子弄得乱七八糟。这些物品可以单独存放或扔掉。

这项研究提供了人工智能使用的系统和大脑建模系统之间有趣的融合。Saxe 说,在这个例子中,「这些人工系统的理论提供了一些新的概念来思考大脑中的记忆」。

例如,计算机面部识别系统的工作原理有相似之处。他们可能会首先提示用户从不同角度上传自己的高清图像。神经网络内的连接可以从不同角度和不同表情拼凑出面部外观的一般概念。但如果你碰巧上传了一张「包含你朋友的脸的照片,那么系统就无法识别两者之间可预测的面部映射,」 Fitzgerald 说。它会损害泛化能力,并使系统识别正常人脸的准确性降低。

这些图像激活特定的输入神经元,然后活动流过网络,调整连接权重。随着更多图像的出现,模型进一步调整节点之间的连接权重,以最小化输出误差。

但仅仅因为某种经历不寻常并且不适合概括,并不意味着它应该被丢弃和遗忘。相反,记住特殊的经历是至关重要的。这似乎就是为什么大脑将其记忆分为不同类别并单独存储,新皮质用于可靠的概括,海马体用于例外。

McClelland 说,此类研究提高了人们对「人类记忆的错误性」的认识。记忆是一种有限的资源,生物学必须妥协才能充分利用有限的资源。即使是海马体也不包含完美的经历记录。每次回忆一次经历时,网络的连接权重都会发生变化,导致记忆元素更加平均。他说,这引发了人们的疑问,在什么情况下「可以保护目击者的证词免受偏见和反复询问的影响」。

该模型还可以提供对更基本问题的见解。「我们如何积累可靠的知识并做出明智的决策?」 没有参与这项研究的加州理工州立大学神经科学家 James Antony 说。它显示了评估记忆以做出可靠预测的重要性——大量噪声数据或不可靠信息可能不适合训练人类,就像不适合训练人工智能模型一样。

参考内容:https://www.quantamagazine.org/the-usefulness-of-a-memory-guides-where-the-brain-saves-it-20230830/

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

34c9cdcea48b1e17a5aee9064ae04e2f.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值