神经成像元分析(meta-analysis)中基于种子点差异映射(SDM)算法的哲学与方法论

前言

  本文将介绍神经成像领域元分析的发展历程,探讨:

  • SDM算法克服了哪些统计错误?
  • 比起其他的元分析方法,可以更多的回答哪些问题?
  • 其背后体现对脑功能本质理解的何种哲学?

  然后介绍基于SDM软件包,进行resting-fMRI 元分析的步骤。

  基于种子点差异映射(Seed-based d maping)是神经成像元分析的一种统计技术,从2009年开始在这15年的时间内被广泛用于研究大脑功能和结构的差异。其统计模型关注每项研究的效应量(effect size)和样本量,而不仅仅只是激活坐标,所以可以同时处理正负效应。国内外有研究用不同的元分析算法和基于图的金标准进行比较,发现SDM算法表现最优。

   笔者在接触脑成像元分析一年的过程中,尝试了不同的算法,最终也选择用SDM算法来完成自己的研究,谨以此文记录学习的思考。

 空间 VS 效应

  元分析作为一个量化多项文献研究,为该研究问题下总体性结论的研究方法,自问世以来一直是循证医学金字塔顶端。

  21世纪初,随着神经成像技术的发展和影像证据的积累,人类也迫切需要在神经影像界开展系统性审查,综合多中心的研究结果,在总体上回答某自变量对大脑的影响是否存在?到底存在在哪?

  2002年,激活概率估计法(ALE ,Activation Likelihood Estimation)被提出。ALE算法建立的假设是:每个体素被报告的可能性是以激活峰值点(Foci)为中心, 呈 3D 高斯分布。距离报告峰值点越近,其被报告的概率越高。按照这一假设,为每项研究绘制出模型激活图(MA,modeled activation map),MA图的每个体素点数值为这项研究中该体素被报告的可能性。再将所有纳入的研究的MA图整合在一起,与零假设进行假设检验,找到横跨多项研究中能够被稳定报告的体素点坐标。

 “基于体素的元分析本质上就是为每一个体素计算它有多少次足够靠近被报告的峰值点?它被报告的概率是否高于偶然?”SDM算法的开发者Joaquim Radua说。回到21世纪初, ALE算法的确回答了“在总体上某自变量对大脑的影响存在在哪?”这一问题。

  但随着我们深入追问,会发现某些因素(比如疾病或特定任务)对大脑产生的影响不是简单的Where,还涉及效应的估计How?比如是让皮层厚度增加还是减少,比如是让前额叶激活还是抑制?传统的ALE模型在数据输入上仅有峰值点坐标,没有统计量,所以它在回答“某自变量对大脑的影响是正向还是负向?”上显得乏力。

  2008年,ALE的算法在六年期间来也在不断优化统计模型。其在尝试回答“某自变量对大脑的影响是正向还是负向?”这一问题上也进行了一定探索,虽然本身的模型里没有输入统计量参数,但如果我们将Z值为正的研究放积极组,Z值为负的研究放消极组,分成两组分别计算不就可以知道各自的影响了吗?比如2008年剑桥大学发表在《神经科学与生物行为学评论》上的文章就采用ALE算法和这一分组思路对强迫症患者激活异常进行了研究。

  但这样天真的分组也会带来有趣的结果,比如下图某些体素错误的被报告为激活增多又被报告为激活减少,因为它在两组的检验中都显著。

(a) 强迫症患者激活率高于健康对照组 ( p<0.05) 和 (b) 健康对照组激活率高于 OCD 患者的激活率区域 ( p<0.05)。

  ALE算法在回答“某自变量对大脑的影响是正向还是负向?”上遇挫,更难以去回答“某自变量对大脑的影响程度有多大?”这类随着人类神经科学研究深入而迫切需要讨论的问题。

  又一年后,2009年,SDM算法携带着今天早已已经大名鼎鼎的SDM软件包第一代版本正式在英国精神病学杂志上刊登的《强迫症灰质变化的体素元分析》文章里出世。

强迫症患者灰质增加
/减少报告坐标点映射

  其正是在ALE算法与多级核密度分析(MKDA,multilevel kernel density analysis)算法的基础上改进而来。其模型需要输入坐标点,样本量和统计量,正负值的报告都会在一张模型脑图上被重建,从而不仅回答了灰质体积/大脑激活在哪一脑区变化,还回答了灰质体积/大脑激活是增加还是减少?

  •   ALE算法主要关注空间一致性,它背后的哲学是找出该领域研究下夸研究中报告的脑区的一致性。
  •   而SDM算法试图平衡空间信息和效应信息,认为大脑活动不仅有“Where”在哪里的问题,还有“How”多强的问题。

  从ALE算法到SDM算法的不断发展,体现的是脑成像的缩影,体现的是人类从关注变量与大脑空间关系的对应到引入影响强度等因素得到更全面图景的探索。

预处理(Processing)

  因为本文关注算法,省略了文献检索与数据抓取环节。如有问题可参考SDM官方教程,或评论留言。

一、哲学:为每项研究重建效应量脑图

  因为大部分MRI研究都是报告研究结果中显著的脑区的峰值坐标点和其统计量。这些坐标点是离散的数据,我们没办法在全脑范围进行分析,从而与其他研究进行整合分析。所以我们要将这些报告出来的坐标点还原在一张空白的大脑脑图上,将离散点坐标点转化成覆盖全脑的连续图像。

  为每个体素还原效应量的原理:就是基于其离峰值的距离和效应量的大小。

  •   体素离峰值越近,效应量越大;离峰值越远,效应量越小;
  •   报告点效应量大,其为附近体素分配的效应量越大;报告点效应量小,其为附近体素分配的效应量越小。
基于某项研究报告坐标点和统计量还原其效应量的脑图

一、方法:SDM预处理自动化流程

  准备好每项研究的数据后,即可开始预处理,选择数据的模态,应用的模版,各项异性系数,平滑核,掩模和体素大小后SDM软件既会自动开始处理。

  首先它将统计值(t)转化成标准化后的效应量Hedges'g。然后它将所有从坐标点都转化成标准MNI空间。再为每一项研究创造效应量脑图。最后还会应用标准脑掩模,确保分析仅限于关注脑区。

  等到软件计算完就可以在工作路径下找到pp文件夹,里面储存了预处理结果,包含pp.htm文件和每项研究生产的四张全脑图。最重要的是通过pp.htm文件检查预处理的摘要。

分别是效应量置信区间上限,效应量置信区间下限;t值置信区间上限,t值置信区间下限。(如果研究样本越大,置信区间范围越小。)

SDM软件预处理步骤

主效应计算(Mean)

二、哲学:整合各项研究的脑图

   在预处理的过程中,我们已经将所有的研究都还原到相同的脑空间里,并且为其创造了效应量脑图。现在我们该如何将来自不同研究的脑图合并在一起,得到总体的脑图呢?

  传统的ALE每张MA脑图像体素值的取值范围[0,1],指被报告的概率。其合并不同MA图像的原理就是为每个体素进行联合概率计算,使用极值过程理论来还原每个体素被真实报告的可能性。传统元分析合并不同研究的原理有很好的可解释性,但同样涉及一些问题,如某一体素在一项研究中距离两个报告峰值点都很接近,其概率如果叠加这会出现p值超过1的错误。

  SDM的每个体素值并不是概率,而是标准化后的效应量, 主要的统计分析是均值分析,包括计算 不同研究中体素值的平均值,然后为不同研究中体素的均值进行加权平均,该均值的加权公式为方差的倒数,从而解释了研究间的异质性。然后计算每个体素的Z分数和p值。比起传统方法,SDM的模型算法更加复杂,更能捕捉研究间的差异和特殊性。其保留了效应量大小,还将异质性分析作为标准流程的一部分(Q统计量,I^{^{2}},τ²等),从而能更好识别差异,联合不同研究。

二、方法:SDM主效应计算

  进行完预处理后选中Mean选项,选择预处理文件夹,过滤研究,协变量和使用CPU既会进行自动化计算。

SDM软件主分析步骤

SDM主分析涉及的五个步骤分别为:

  • MLE coefficients(MLE系数):用最大似然估计法得到总体效应大小的估计值,表示变量之间关系的强度和方向。表面某一脑区激活的平均强度。
  • MLE heterogeneity(MLE异质性):用最大似然估计方法得到的研究间方差,表示研究间效应大小的不一致性,输出不同的异质性参数。
  • Multiple imputation:多元差补,填补缺失值。
  • Meta-analysis:实质的元分析计算,整合不同研究。
  • Rubin's rules:鲁宾法则,处理缺失数据问题,同时保持统计推断的准确性。
SDM软件主分析计算过程
SDM主分析后输出的文件

  在进行了漫长的计算后就会在工作路径输出这几个图,其含义如下图标注。SDM自动化的为我们计算出"uncorrp.nii",让我们在下一步根据自己需要选择合适的阈限和统计检验方式找到显著性的体素与脑区。

总结

  本文回溯了给予坐标点的脑科学元分析发展历程,探讨了SDM算法从ALE和MKDA算法中改进发展的过程,其体现的是对脑功能和变量对应关系的本质理解不局限于空间位置的思想。然后介绍了基于SDM软件的操作流程,以及每个步骤具体含义的讲解。在拥有了总体的Z值图后,就可以自己选择阈限和进行多重比较校正,以及在之后进行亚组分析,敏感性分析,元回归分析等。

参考

Radua J, Mataix-Cols D. Voxel-wise meta-analysis of grey matter changes in obsessive–compulsive disorder. British Journal of Psychiatry. 2009;195(5):393-402. doi:10.1192/bjp.bp.108.055046

  • 19
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值