神经解码和信号检测理论

神经解码和信号检测理论

引入

在之前的内容里我们了解了神经编码模型,即一个刺激如何引起神经环路一系列的响应。因此从本节开始我们将聚焦于神经解码,即通过神经环路的一系列响应辨别不同的刺激。
在这里插入图片描述
我们先来引入一个案例:假设你在公园里散步,听到了沙沙声,此时可能是微风也可能是一只躲在暗处的老虎,你需要做出继续走还是逃跑的这一决定。我们把这个过程数学化—假设我们可以沿着某个轴排列所有可能的沙沙声。
此时我们的依据只有上图的声音,那么我们如何进行选择呢?

这是一个经典的依据嘈杂的感觉信息进行动作决策的实验。

在这里插入图片描述
同样的我们训练一只猴子,盯着屏幕中这些移动的光标,光标整体移动方向的相关性不同(相关性越低越嘈杂),即屏幕中光标移动的无序度不同,此时猴子需要向大部分光标移动的方向扫视才能得到奖励。
这里有两种极端情况:

  • 相关性为1时所有点都向同一方向移动,此时没有噪声
  • 相关性为0时所有点都做随机运动,在这种情况下猴子的扫视不存在正确答案
    在这里插入图片描述
    从上图也可以很容易看出随着相关性降低,猴子向上或向下扫射时神经元放电的firing rate越来越趋近,即失去了对于光标移动方向的分辨能力。

那么我们如何对这一过程进行建模?

简单神经解码

在这里插入图片描述

继续刚刚的问题,为了对神经解码的过程进行建模,我们首先建立猴子向上扫视的概率分布 p ( r ∣ + ) p(r|+) p(r+),以及向下扫视的概率分布 p ( r ∣ − ) p(r|-) p(r)

解码意味着我们需要一个策略来对于响应r进行向上扫视或者向下扫视的映射。此时我们就需要设定阈值 z z z,图中所选择的 z z z为两个概率分布的交点,这个位置的 z z z可以最大化猴子行为决策的正确率。

  • 这里的条件概率 p ( r ∣ + ) p(r|+) p(r+)以及 p ( r ∣ − ) p(r|-) p(r)又被称作似然,而这里的阈值 z = p ( r ∣ + ) / p ( r ∣ − ) = 1 z=p(r|+)/p(r|-)=1 z=p(r+)/p(r)=1,因此当似然比 p ( r ∣ + ) / p ( r ∣ − ) > 1 p(r|+)/p(r|-)>1 p(r+)/p(r)>1时,猴子必定向上进行扫视
  • 上述过程又被称之为似然比检验,是一种很好的数据分析技巧。

证据累积的神经解码

上文我们已经建立了一个简单的不考虑时间过程的神经解码模型,那么现在假设我们能够在很长一段时间内观察来自未知来源的输出,即在一段连续的时间过程中每一个timebin的响应都是一个近似独立的样本,我们需要不断的累积证据,从而做出正确的行为决策。
在这里插入图片描述
我们计算每一个timebin下的似然比 l s = ( P ( s ∣ t i g e r ) / P ( s ∣ b r e e z e ) ) l_s=(P(s|tiger)/P(s|breeze)) ls=(P(stiger)/P(sbreeze))并将结果取对数 l o g ( l s ) log(l_s) log(ls)(似然比<1对数<0,似然比>1取对数>0),随后计算在整个时间过程中的对数累积总和,依据总和是否>0来进行决策。
在这里插入图片描述
上图为一个时间过程中对数的变化趋势的实例图。
在这里插入图片描述

上图不同颜色代表不同相关性的移动光标,深棕色对应的是光标相关性最高的一次实验。

  • 我们可以在猴子的实验中观察到这种证据累积的特点:证据确凿时,firing rate上升速度最快,证据不足时则变得相对较慢
  • 达到阈值后firing rate会逐渐收敛,直到达到某个置信度阈值, 此时猴子会进行行为决策

考虑先验的神经解码

我们已经考虑到了似然比,连续时间过程,那么如果我们的似然在一开始就是存在偏置的,即在公园里听到的沙沙声是老虎的概率在客观上比是风声的概率低很多,此时我们该如何建立解码模型呢?

这意味着我们需要考虑先验的作用。 这些刺激实际上存在的这些先验概率。

加入惩罚项的神经解码

我们的输入刺激可能伴随着一系列噪声,那么我们的神经系统在这时就需要决定是否投入精力去产生响应,即我们需要考虑某些刺激条件下采取或不采取行动的成本。
在这里插入图片描述
还是回到猴子实验的例子,这里我们计算了平均loss并分别添加了惩罚项 L − L_- L L + L_+ L+,这里的 P [ + ∣ r ] P[+|r] P[+r]以及 P [ − ∣ r ] P[-|r] P[r]分别为两种情况下的假阳率,我们的目标是在平均损失尽可能小的基础上使一种行为决策的损失小于另一种行为决策的损失;因此此时我们对似然比检验进行更新:
在这里插入图片描述
欢迎大家关注公众号奇趣多多一起交流!
在这里插入图片描述

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
神经网络的编码器和解码器在深度学习中扮演着重要的角色。编码器的作用是将输入序列转换为固定维度的向量表示,以提取全局信息。编码器可以使用不同的实现方法,如卷积神经网络编码器和循环神经网络编码器。卷积神经网络编码器通过卷积层对输入序列进行处理,提取特征信息。而循环神经网络编码器通过循环神经网络层对序列进行逐步处理,捕捉序列的上下文信息。 解码器的作用是将编码器生成的向量表示转换为目标序列。编码器-解码器结构在各种任务中都有成功的应用,如机器翻译、图像描述生成和视频理解等。解码器可以使用不同的神经网络结构,如循环神经网络(RNN)、卷积神经网络(CNN)和图神经网络(GNN)。通过编码器-解码器结构,可以将输入序列映射到目标序列的空间中,实现对序列的生成和预测任务。 在实际应用中,编码器可以使用卷积神经网络(CNN)或循环神经网络(RNN),具体选择取决于任务和数据的特点。解码器则可以使用LSTM(长短时记忆网络)或GRU(门控循环单元)等循环神经网络结构。为了确保编码器输出与解码器输入的匹配,通常需要设置一个共享的嵌入矩阵,将输入序列和目标序列映射到相同的向量空间中。 总结起来,神经网络的编码器负责将输入序列转换为固定维度的向量表示,而解码器则将该向量表示转换为目标序列。编码器和解码器可以使用不同的网络结构,并通过共享的嵌入矩阵实现输入输出的匹配。这种编码器-解码器结构在深度学习中被广泛应用于各种任务。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

佩瑞

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值