时间:2024-09-03
莫嘉杰 张建国 胡文瀚 张凯
人类的大脑皮质由相互连接的神经元构成,它们通过高度的折叠来增加大脑皮质的表面积,从而显著地提升了神经元的数量。这种折叠形式在大脑颅骨下以带状分布,体现为大脑中沟回的组织形式,它们的平均厚度约为2.5 mm,在不同部位的厚度存在一定变化,但基本在1~4.5 mm之间。不同大脑部位的皮质有着相对局部的皮质表征,它们不仅表现为构筑细胞的差异,同时也体现在其厚度在个体终生的变化和不同个体的差异性上。因此,了解大脑的皮质厚度信息对于理解皮质变化与个体差异、年龄老化以及脑疾病之间的关系至关重要。
过去40年里,结构磁共振成像(structural magnetic resonance imaging,sMRI)技术取得了飞速的进展,获得大脑皮质信息的能力得到显著提高。用于研究神经解剖的磁共振计算方法、新型量化技术和后处理技术也不断涌现。在癫痫外科领域,磁共振成像技术彻底改变了临床医师发现致痫灶的能力,并将研究领域从解剖-电-临床关系转向多学科研究。既往研究认为结构磁共振上清晰的致痫灶阳性发现是临床良好预后的关键因素[1],跟颅内肿瘤、血管畸形的病理不同,癫痫外科常见的皮质发育不良(focal cortical dysplasia,FCD)和海马硬化(hippocampal sclerosis,HS)等在磁共振上往往隐蔽或者“阴性”,给临床工作带来了巨大挑战[2]。虽然神经影像后处理方法的发展从不同方面提高了研究者对这些视觉上隐蔽或者较难发现的组织信息的探测能力,但目前这些神经影像技术的进步和发展未能系统地转化为临床应用,因此本文将针对目前癫痫外科结构磁共振常用的分析方法、计算模型和统计应用进行综述(图1)。
图1 神经影像分析技术在癫痫外科的研究进展Figure 1 Emerging trends in neuroimaging analysis methods in epilepsy surgery
基于体素的形态测量(voxel based morphometry,VBM)较早由Ashburner和Friston在2000年提出[3],该方法的基本思想是通过在逐个体素(voxel)上比较两组受试者的灰质密度来探测不同组别被试存在差异的区域。该方法的基本步骤为:(1) 将每个被试的高分辨率磁共振解剖T1加权图形空间归一化到相同的立体定位空间,如蒙特利尔标准空间[4];(2) 在每个图像中分割灰质、白质和脑脊液;(3) 使用高斯核函数(平均灰质密度)平滑图像;(4) 使用体素水平的参数或非参数方法来比较两组灰质密度的差异或寻找与临床或认知变量的显著关联。
VBM方法在早期的癫痫脑成像研究中取得许多成果,并随着研究方法的更新,已经延伸出不同的影像后处理方法,如形态分析程序(morphometric analysis program,MAP)。该方法基于体素的形态定量评估皮质解剖,逐体素定量地比较个体患者的灰质概率图与正常数据库中的平均灰质图像,既往学者应用MAP技术有效提高了磁共振阴性致痫灶的检出率[5-7](图2)。其他方法还有如PET的统计参数映射(statistical parametric mapping-PET,SPM-PET)等。
图2 MAP技术后处理范例Figure 2 Example of morphometric analysis program post-processing
基于表面形态分析(surface-based morphometry,SBM)较早由Besson等[8]在2008年提出,是纹理分析(texture analysis)的进阶,其基本过程是通过重建大脑皮质的三维表面,并提取代表大脑皮质形态学特征,实现精确判定大脑皮质面数据网格点(vertex)解剖区域定位和组间差异分析的计算。其基本计算过程如下:
(1) 对个体T1 影像进行密度标准化和射频偏压场不均性校正;
(2) 在个体空间图像分割灰质、白质和脑脊液,估计不同组织边界;
(3) 进行皮质重建,通过半球分离、曲面细分及图像变形使灰质/白质交界和软脑膜表面网格化,重建出白质表面(white matter surfaces)和软脑膜表面(pial surfaces);
(4) 拓扑结构修正以及基于皮质水平的配准,空间平滑;
(5) 在“vertex”层面进行组间被试全脑范围的参数检验或非参数检验。
在表面分析中,常用的指标包括皮质厚度、表面积以及复杂度等。相对VBM方法容易受到脑成像脑沟影响对检测皮质异常的灵敏度有限、Voxel-wise的平滑会降低皮质间改变的特异度和增加了部分容积效应等问题,SBM方法能有效克服这些不足,其对皮质特征测量的优势使其在癫痫、退行性疾病等逐渐成为主流[9-11]。
VBM和SBM都同属计算神经解剖学,是通过各种测度来测量脑皮质形状和密度信息的影像后处理方法。VBM能够全脑定量测量脑组织成分的局部体积和密度信息,从而刻画局部脑区的特征和病理变化,但其体素信息是总体结果,不能厘清皮质厚度、面积、皱褶度等内在属性对测量的影响。而SBM采用网格化表面的分析方法,采用的空间是一个基于表面的球面二维空间而非传统的三维Talairach坐标空间,更符合大脑皮质本质上是一张二维薄层的客观事实,能够更真实反映大脑皮质结构的内在拓扑本质[12]。但也存在无法评估皮质下及白质形态等问题。
就目前为止,基于体素的形态测量仍旧在评估灰质体积的总体变化方面具有优势,但是灰质体积可由两种改变引起,即皮质厚度和皮质表面积。这两种变化反映了人类皮质的不同结构特征,并且可能受到不同细胞因素的驱动(即皮质表面积的皮质微柱数和皮质厚度内微柱的细胞数)。鉴于灰质体积与皮质表面积而非厚度有更密切的联系,因此还需要更多的研究来阐明这VBM和SBM这两种技术之间的关系,但在癫痫疾病中皮质厚度的测量方法比体积研究所获得的结果更为具体。此外,皮质厚度提供了一个不易受个体位置变化影响的皮质形态的直接指标,因为无论位置差异,提取灰质都遵循灰质表面,尤其是在基线和随访的受试者内部比较中。因此,在未来的研究中,SBM方法将成为灰质研究的主要方法。
在比较患者和健康对照组脑结构差异时,往往涉及不同的比较过程,并且在具体研究中由于研究假设的不同,研究者往往需要选择合适的统计检验方法。如对不同组被试的脑结构数据或者同一组被试前后测的脑结构数据的比较往往涉及正态分布先验下的t检验,而对个体变异更感兴趣的研究则更多地使用相关或者回归方法来进行统计。由于脑结构数据的高维特性,以及相关研究往往在小样本情况下进行,因此,严格地使用先验假设的统计方法对于研究结果的可靠性和鲁棒性都极为重要。本部分将结合具体问题来简要介绍在癫痫的结构影响数据中常用的统计方法,并且对这些方法的适用情况进行讨论。
基于体素的两样本t检验较常用于表面分析的组间比较中[13,14],其在单一体素水平生成一个t值,是组间对比效应量的主要步骤,P值后续根据研究设计(探索性研究或验证性研究)决定是否进行多重比较校正。
Hotelling’st2检验是两组间t检验进行多元分析的延伸,是多元分析中用于组间均向量的比较[15]。比如神经影像分析可测量出多种形态特征(皮质厚度、沟回深度、沟回曲率等),单变量t检验仅能进行单独分析,而Hotelling’st2检验能综合所有形态学的信息进行结果解读,适用于在多变量的研究当中。
相关分析是影像量化特征和临床信息之间相关关系的统计指标,如癫痫病程对皮质厚度的影响等。常用的有Pearson相关和Spearman相关,前者强调两个连续变量之间的线性关系,即当一个变量增加时,另一个变量增加一致量,这形成了一种递增直线关系;而后者强调两个连续变量之间的单调关系,即一个变量在另一个变量增加时增加,但数量不一致。另外,当考虑一个变量和多个变量存在相关(如皮质厚度可能与疾病病程和发作频率同时存在相关关系)可用复相关。而如当考虑其他变量对试验有影响,需要进行变量控制的情况(如皮质厚度和疾病病程相关,但是患者的年龄、大脑容积可能是混杂因素,需要控制),可使用偏相关。
回归分析是对具有相关关系的两个或以上变量之间的共变关系进行测定,以确立相应的数学表达式,从一个已知量来推测另一个未知量。相关分析是回归分析的基础,回归分析是相关分析的深入,在用于根据影像特征对疾病自动分类中存在潜在价值例如提取海马硬化相关影像特征,对其进行自动识别[2]。
这里需提醒两个容易混淆的概念——协方差(covariance)和协方差分析,并且有必要对协方差分析和偏相关分析进行区分:协方差表示的是两个变量总体误差的期望,一般表示两个变量之间的相关关系,而相关系数(correlation)是协方差的归一化(normalization),消除了两个变量量纲/变化幅度不同的影响,能够单纯反映两个变量在每单位变化的相似程度。而协方差分析实际是方差分析的引申和扩大,基本原理是将线性回归与方差分析结合起来,检验和控制协变量(不可控因素)在方差分析中的影响;偏相关分析是测量排除不可控因素(数值变量)外的变量之间的相关程度。
一般线性模型(general linear models,GLM)由于广泛应用于神经影像学统计分析,其能对“voxel”或“vertex”的数据进行线性回归,以确定数据是否具有显著性。分析时根据数据类型和先验假设选择不同模型进行统计计算,简单的包括简单回归(simple regression)、方差分析(analysis of variance,ANOVA)和多重回归(multiple regression)。GLM还包含其他形式,如混合效应模型(mixed effects models)、层级模型(hierarchical models)、时间序列模型(timeseries models)、稳健回归(robust models)以及正则化回归模型(penalized regression models)(套索回归LASSO、岭回归Ridge等)。最后还有一种广义线性模型(generalized linear models),它包含了非正态误差(non-normal errors)、不同误差分布和逻辑回归(logistic regression)。
GLM的基本模型为:
G{E(Y)}=β0+β1X1+β2X2+…+βkXk
式中:X为自变量;Y为因变量;G{ }为连接函数。
该模型可以分解为三个要素:
(1) GLM1为随机要素,因变量Y的每个观测值Yi相互独立且服从指数型分布族,常见有正态分布、泊松(Poisson)分布、二项分布和拟高斯分布等。
(2) GLM2为系统要素,即解释变量的线性组合,表示为μ=β1X1+…+βkXk,可看出同经典线性回归模型,仍保持线性结构。
(3) GLM3为连接要素,G(μ)=η或E(Y)=μ=G-1(η)。其中G严格单调且可导,称为联系函数(link function),常见的有对等(identity)、对数(log)和Logit等,其建立了随机要素与系统要素之间的关系。可见,GLM对因变量的预测值不直接等于解释变量的线性组合,而是该线性组合的一个函数变换[16]。
效能分析(power analysis)通过估计试验样本量从而增加统计结论的可信力和可解释性。其通过检验统计量和效能设置,对样本量进行估计。
对于临床研究,研究者往往从患者和匹配的对照组之间是否存在脑结构差异的假设出发来设计研究方案。在这种假设下,往往讨论两组被试或者多组被试间的差异。虽然在参数检验框架下一个很重要的步骤是检验数据是否符合要执行的检验对样本数据分布的要求,但是由于在实际统计时是基于体素(voxel/vertex)来逐个检验组间差异的,受到巨大数据量的影响,很难一一检验这些比较中的数据是否符合某种具体的先验分布,因此,在样本量足够大的情况下,往往默认这种情况,并执行参数检验。但是,有许多小样本研究也忽略此问题,而直接使用参数检验,这可能提升此类研究第一类错误的发生率。
检验统计量(test statistic)用以测量零假设(null hypothesis)和数据之间的一致性,通过计算检验统计量以及对应的P值来决定是否否定零假设。神经影像的组分析一般使用t值作为检验统计量,但Cohen’sd值(组间均数差除以合并标准差)也常使用[11,13-14]。
多重比较校正(multiple comparison correction)在脑成像领域是一个重要的统计问题。在进行组间统计时,需针对每一体素(voxel/vertex)逐一进行分析,如果直接进行检验,出现统计学显著的簇(cluster)很可能是假阳性的结果,量化假阳性可能性的方法包括:错误发现率(false discovery rate,FDR),它控制了所有被拒绝的检验中假阳性的比例;整体错误率(family-wise-error rate,FWER),它指的是多重比较时,出现假阳性的可能性。因此需要引入多重校正方法,目前常用的包括FDR校正、Bonferroni校正、FWE校正、置换(permutation)校正和Cluster校正。
3.4.1 FDR 校正[17]
这种方法控制所有阳性结果中假阳性的比例。将所有(N个)体素(voxel/vertex)计算的P值进行从小到大排序,找到第n个P值大于 0.05n/N。
3.4.2 Bonferroni校正
此方法是用指定显著水平(一般是0.05)除去多重比较的数目,得到一个比较低的阈限。但是这种方法往往比较苛刻,只在比较数目比较少的时候适用。面对神经影像的数据,Bonferroni校正显得不太合适,因为其服从一个基本假设是每次实验是否独立,但像神经影像这样邻近体素(voxel/vertex)的信号往往具有高相关性。
3.4.3 FWE校正
FEW校正直接控制整体犯错误概率。人们常选用随机场理论(random field theory,RFT)进行FWE校正[18],其基本假设就是空间邻近的体素(voxel/vertex)具有相关性(也可以说是存在由空间平滑造成的相关),则在检验前,先估算数据的平滑程度,再基于这一指标计算某个体素不是由随机因素引起显著的概率。其假设要求平滑程度至少要为数据最小空间分辨率的2~3倍(而且平滑程度越大,检验效果越宽松)。
3.4.4 Permutation校正
对原始数据进行多次(1000次或以上)随机化/置换迭代,得到的将是一个随机的零分布,考察真实数据在这一分布中的位置,然后进行一次排序(permutation),如果在分布的两级(单侧5%或双侧2.5%),则认为真实数据不属于随机的零分布,而是符合预期的假设。
3.4.5 Cluster校正
这种方法以显著差异的簇为校正单位,较Voxel或Vertex-wise的校正宽松。首先需要定义团块:设置校正前阈值(cluster-defining threshold,CDT)(包括检验统计量或P值),满足该阈值的空间上相邻的体素组成一个团块,全脑内将形成大小各异的簇。然后根据分析自由度和一般线性模型残差的空间自相关的近似水平,对簇大小与利用高斯随机场理论(Gaussian-RFT)[19]或置换检验下预期簇大小的零分布进行比较,最后选择阈值。所以体素(voxel/vertex)有一个阈限设定,簇也有一个阈限设定,随后也能进行P值的多重校正。
既往研究认为基于簇的校正方法的假阳性错误率明显高于基于体素的校正方法,这可能是由于基于簇的校正方法还须假定空间自相关函数具有高斯形状,这一特定假设可能不符合实际[20]。目前正在发展的方法是无阈值簇群增强校正(threshold-free cluster enhancement,TFCE)[21],这是一种将结合强度(intensity)(检验统计量)和空间扩展度(spatial extensity)整合为一体的方法,或者说这种方法结合了簇的强度和大小的信息,把统计值积分再乘以其阈上的面积,该方法的应用越来越广泛。
总体而言,没有任何一种统计校正方法是完美的,在实际应用中应根据研究目的及数据实际情况平衡检出率和假阳性率两个方面,基于体素的校正方法假阳性率低,但检出率也相对较低,更适合差异显著的情况;而基于簇的校正方法检出率高,但假阳性率也相对较高,更适合差异不显著情况[22]。
可重复性分析(reproducibility analysis)可进一步增加统计分析的可靠性,一般可利用Bootstrap方法估测组间对比的一致性,通过进行两组间多次(1 000次或以上)随机重采样,进行相同的统计分析和多重校正,最后可得出1 000次随机迭代的概率结果,使结果解读更具科学性和鲁棒性。
本文重点阐述癫痫外科结构磁共振科研工作中较常遇到的分析方法、计算模型和统计应用等方面进行全面的阐述,如分析方法中介绍了目前科研方向,包括VBM、SBM分析方法,以及常用的统计软件和可视化工具包;计算模型介绍了现在常用的不同驱动目的的分析方法和GLM模型,后者内含多种形式,根据数据和先验假设进行不同的选择;而统计方法是本文的重点阐述部分,其中包括统计方法选择、检验统计量解释、多重校正介绍以及增加实验可信度的方法。
基于体素分析方法的创建和发展,成为了现代计算神经影像学的理论基础和重要基石,SPM和Fsl等软件包的推出使得分析过程更加规范和便捷。除此以外,在体素水平上进一步研发的表面水平分析方法目前成为了研究热点,尤其在获取皮质折叠、沟回信息等方面[23]。在选定好分析方法后,对统计应用的选择也异常重要,根据具体场景,选择差异驱动或协变驱动的统计方法,而且根据数据分布和类型选择合适的分析方法,如参数或非参的选择。此外,神经影像学统计和临床变量统计不全一样,前者常设计多重校正的问题,本文也介绍了多种多重校正的方法,引入了检验统计量的描述,并且建议使用可重复性分析,使结果更有说服力。
本文介绍的统计分析从最常用的结构磁共振影像入手,未覆盖目前常见的其他模态如断层神经成像(computed tomography,CT)、功能磁共振(functional magnetic resonance imaging,fMRI)、磁共振张量成像(diffusion tensor imaging,DTI)、磁共振波谱分析(magnetic resonance spectroscopy,MRS)和代谢成像(positron emission tomography,PET)等,个别模态的处理细节未展开叙述,但是神经影像统计分析的思维和方法是相通的,可以相互借鉴和运用。随着显著增加的跨尺度多模态成像数据的增加,挖掘影像表型特征复杂度和多样性的提高,未来神经成像研究的模型建立、统计分析、特征描述可能依赖更先进的计算设备和算法,以及强大的储存、管理和可视化复杂数据的新技术。同时,新发现的再重复性验证需要大量公开的、合作的共享数据和详细的分析流程,才能更好地促进科研成果向临床转化。
致谢感谢中南大学罗熙康和华南师范大学陈宇峰对本文的帮助。
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!