【笔记】Associative and predictive hippocampal codes support memory-guided behaviors (RESEARCH SUMMARY)


在这里插入图片描述

Basic information

Author: Can Liu et al.

J: Science

IF: 56.9

Introduction

  • 大脑生成用于指导flexible behaviors的环境模型。该过程需要学习世界的states(e.g. specific locations),以及这些states之间的过渡关系(e.g. 沿着经常行进的轨迹的连续位置)
  • 一种内部模型——hippocampal cognitive map,支持联想学习、导航规划和推理(inference)。但这些不同的behaviors需要海马体编码的哪些方面,以及它们如何支持联想(associative)和预测记忆功能(predictive memory functions),仍然是未知的

Retionale

  • Hypothesis: 假设海马体的两种活动模式分别支持世界状态(world states)和状态转换(state transitions)的学习
  • 一方面,海马体神经元(cell assemblies)的同步协同活动可能会编码个体状态的特征,形成一个关联编码(associative code)
  • 另一方面,这些cell assemblies有序激活成行为相关序列可能会对状态之间的关系结构进行编码,形成预测编码(predictive code)
  • Liu et al.利用光遗传学(optogenetic approach)来分离上述两种编码方案,目的是破坏行为中的大鼠的predictive code(hippocampal sequences),同时保留associative code(rate coding and coactivity dynamics,速率编码与共活动动态)。这种分离使得能够检查这两种编码的不同记忆功能

Results

  • 当老鼠在一个新的迷宫中导航特定的空间轨迹时,Liu et al.通过光遗传学扰乱了海马体place cell放电的fine temporal coordination(精细时间协调)
  • (目的)该操作破坏了predictive code的特性(e.g. temporally compressed place cell sequences (时间上压缩的位置细胞序列) and anticipatory place field shifts (预期位置场移位))
  • 在经历新体验后的睡眠期间,Liu et al.观察到编码离散迷宫位置的task-related cell assemblies (任务相关细胞集合)在锐波波纹(SWRs)中被重新激活,且不受操作的影响。然而,它们的顺序结构并未重现(reproduce)其在任务中活跃的顺序,导致扰动轨迹(perturbed trajectories)的顺序重放受损。该结果显示了细胞集合重激活(assembly reactivation)和序列重放(sequence replay)之间的分离。(这两种现象以前被认为反映了相同的基础过程)
  • 集合重激活(Assembly reactivation):当动物经历某个事件或学习某个任务时,大脑中的神经元会形成特定的集合,这些集合是与这个事件或任务相关的神经元的群集。在之后的时间里,这个集合可能会在没有外部刺激的情况下重新激活,即使动物不再经历相同的事件。集合重新激活被认为是记忆的一种表现形式,可能有助于在没有外部输入的情况下回顾过去的经历或任务。
  • 位置细胞序列重放(Place cell sequence replay):当动物处于休息状态时,特定环境中的位置细胞可能以它们在动物实际探索该环境时的顺序重新激活。这种现象被认为与记忆的巩固和再现有关。位置细胞序列重放被认为有助于记忆的巩固和整合,可能是大脑在休息状态下对过去经历的一种内部处理。
  • 这两个概念都揭示了大脑在记忆和学习中的动态过程,以及在不同时间点重新激活或重放特定神经元集合的重要性。这些现象对于我们理解记忆的形成和巩固、学习的神经基础以及大脑在休息状态下的功能有着重要的启示。
  • 相同的操作不会破坏熟悉轨迹的重放(replay),这表明学习过程中place cells放电的精确时间协调(precise temporal coordination)介导了后续重放所需的初始可塑性(initial plasticity)
  • Liu et al.通过在两个不同的海马体依赖性记忆任务中部署光遗传学操作来测试predictive code的功能角色(functional role)。条件位置偏好任务中的情景奖励关联学习不受影响,说明在这个特定的学习任务中不需要预测性地映射(predictive map)或记忆重放(memory replay)。简言之,动物学到了环境和奖励之间的关联,而这种学习不依赖于对未来事件的预测性映射或对过去经历的记忆重放。
  • 觅食任务中灵活的记忆引导导航(memory-guided navigation)会受到操作的干扰,因此觅食任务依赖于海马体预测编码

Conclusion

  • Liu et al.的结果:反映了海马体中协同活动(coactivity)和序列编码(sequence codes)之间的机制和功能分离;
  • 对行为变量具有相似反应的海马体细胞会一起放电,在学习过程中形成功能集群(functional assemblies),并在随后的睡眠器件在SWR中重新激活。这些集群对环境中的离散状态进行编码,即一种足以满足某些类型的情景记忆的关联编码(associative codes);
  • 由于这些细胞集群在行为过程中以特定顺序激活,它们形成时间上压缩的海马体序列(temporally compressed hippocampal sequences),并促进Hebb可塑性(Hebbian plasticity)。此过程可在SWR期间重放行为相关的序列(behaviorally relevant sequences);
  • 海马体序列编码世界状态的过渡结构,在各个集群的关联编码之上生成预测模型(海马体中的序列编码,这些序列可以在动物的行为中预测未来的路径或事件,通过这种预测模型,海马体能够生成对环境的预测,以指导行为和决策)
  • 这个框架有助于人类理解记忆关联(memory associations)如何发展成对世界的预测性表征(predictive representations),并有助于协调以前对海马功能的不同观点。

image.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值