分享

复杂神经动力学:分析与建模

 秋水共蓝天 2022-11-07 发布于广东
文章图片1

导语

阅读难度:对于受到过数理逻辑训练的,有微分方程,动力学基础的人群较易;对于神经科学背景,其中的数理公式及方程偏难理解。

适用人群:适合有一定数学物理和大脑生物学基础,有复杂动力系统背景的人群阅读。

建议阅读基础:常微分方程,动力系统。

大脑作为一个复杂系统,不仅处理复杂的外界信息,内部也有自组织的复杂的脑活动。而我们对内部的这种自组织活动的机理及其功能意义知之甚少,周昌松老师对相关的研究进行概览性的介绍,为想入门神经动力学领域的朋友提供一个入门路径。

第一部分:背景介绍

作为一个多尺度的复杂动力学网络系统和功能系统,神经系统具有多方面的显著特征,特别是在成本效益均衡和建模方面。本文会从大脑活动的生物物理学特性到动力学模型构建等角度,简要地介绍复杂神经动力学研究基础。

1.1 大脑主要的组织特征

1.1.1大脑的生理结构

大脑具有显著的多尺度特征。在神经元尺度,具有轴突、树突等结构形成的局部回路;在毫米尺度具有层和柱结构。局部回路在大脑皮层表面形成灰质,内部的白质是不同脑区轴突形成的纤维,像高速公路一样把不同的脑区连接起来,从而赋予大脑高级功能。单个神经元的作用是产生1ms左右的短时动作电位,以在神经网络中进行传输和计算。

1.1.2大脑的复杂性与活动的高效性

一个成人的大脑大约具有860亿个神经元,每个神经元有成千上万量级的突触连接来与其它神经元沟通,这也造就了复杂的大脑活动。大脑的重量占体重的2%,消耗能量却占身体总耗能的20%,也侧面说明了大脑活动的复杂性和功能的重要性。但是大脑处理如此复杂的活动,消耗的能量却只相当于一个20w的灯泡,说明大脑活动是极其高效的。

1.1.3大数据驱动的神经科学

大脑作为一个时间、空间多尺度的复杂系统,可供神经科学研究的数据量极为丰富。神经科学家们可以基于研究兴趣选择不用的视角与方法。

文章图片2

图1. 数据驱动的神经科学[1]

1.1.4大脑活动的测量

以下基于图1举例两种测量技术:

脑电图(Electroencephalography, EEG):EEG 测量由大脑神经元内的离子电流引起的电压波动,最常用于诊断癫痫。通常侧重于测量事件相关电位或脑电波的类型,可提供毫秒级时间分辨率。

功能磁共振成像(Functional magnetic resonance imaging, fMRI):通过检测血流的变化(血氧水平依赖信号,blood-oxygen-level dependent, BOLD)来测量大脑活动。这种技术测量原理是当大脑的某个区域兴奋时,流向该区域的血流量也会增加,主要反映了神经元的输入和神经元内的信息处理,而较少反映神经元的输出放电。

从时间空间尺度来看,EEG可以实现无创全脑测量,空间精度差,时间精度高;fMRI可以实现毫米级的大脑活动测量,但是通过测量血氧含量间接反应大脑活动。对于动物如小鼠,还可以通过转基因技术,测量皮层示光变化以测量电压变化,时间、空间精度都很高[2]。

1.1.5科学家对大脑的研究兴趣

世界范围内正在陆续实施脑计划,如欧洲的HCP (The Human Connectome Project) 或是近年开展的“中国脑计划”,均希望更好地理解大脑的功能与障碍,并促进类脑、脑启发的计算与硬件计算机的发展。

对于大脑活动而言,即使在静息状态下它也有很多自发的活动,这表明复杂动力学是行为的基础。而有研究显示,大脑的自发复杂动力学的耗能占大脑整体耗能的95%,这是为什么呢?可以推测,大脑复杂动力学具有重要的功能意义。但在认知科学等的研究中,从EEG平均得到ERP(事件相关电位), 自发复杂动力学通常会被当做随机过程忽略了。

大脑的行为不能轻易地从它的属性中推断出来,表现出的复杂性具有很重要的功能研究价值。因此使用一些数学物理上的手段去描述大脑的活动,可以帮助我们探寻大脑深层次的机制。

1.2 复杂神经动力学的测量

1.2.1多尺度熵

我们以一种有效的方法举例。多尺度熵(Multiscale entropy, MSE)是一种衡量时间序列复杂性有效的方法,可直接提取原始信号包含的模式信息。该方法通过测量神经动力学在不同时间尺度的波动复现概率,刻画复杂性[3]。这种方法在生物系统、地球科学和机械振动方面都显示出良好的效果。

1.2.2脑疾病动力学的复杂性刻画

目前已有许多研究利用动力学模型刻画不同的脑疾病,如:

1.注意缺陷多动障碍复杂性的刻画[4,5]。

2.抑郁[6]

3.精神分裂[7]

4.创伤性脑损伤[8]

1.3 复杂系统视角下神经系统

1.3.1复杂系统与非线性

非线性加上高自由度就成就了复杂性。神经元具有超强的非线性,而数量惊人。大脑连接组作为网络的网络,可以使用复杂网络的一些表征,例如小世界无标度(scale-free,即网络的度分布遵循幂律)模块化(modular,即高度模块化的网络在模块内的节点之间具有密集的连接,但在不同模块中的节点之间具有稀疏的连接)层次性(hierarchy,即如同“树”的生成,节点与节点之间的连接体现了一种分层结构)等来刻画。

大脑网络连接突出的特点是不均匀,一些神经元之间或脑区之间的连接更紧密,与其它神经元或脑区之间的连接更松散,形成模块结构, 连接随距离衰减,这是一种功能的安排,为了实现高效的活动处理, 也可以节省能量[9,10]。

1.4 大脑作为多尺度复杂系统

由于神经元具有强非线性,因此在单个神经元层次,神经元的活动是极其混沌和随机的,但将所有神经元整合起来的系统具有自发涌现的活动[11]。

1.4.1单个神经元活动

在神经元尺度,神经动力学具有低发放率、不规则的特征[12,13];但是为什么会出现无规则的发放?从兴奋-抑制(E-I)平衡的角度理解,即兴奋神经元和抑制神经元的互相作用达到平衡,理论上导致随机非同步发放[14-16]。

而随着研究对兴奋-抑制神经元更细致的测量,发现他们并非完全的不同步[17]。在更大空间尺度上,神经动力学又会具有临界雪崩、多时间尺度的网络震荡和空间上皮层波的传播等现象。

1.4.2集群雪崩

神经元集群尺度

神经元集群发放的概率并不低,但成对神经元的关联性几乎为0。但如果将神经元打乱,集群发放的概率会显著下降。有研究显示:如果使用Ising模型,原则上使用随机网络的神经元集群(几十个)用微弱的成对关联性也可以产生较高概率的集群发放[18]。对于毫米量级的神经元集群,也会出现大范围的同时发放,该现象被称做雪崩。这种活动出现的概率服从无标度的幂律分布[19,20]。

当然,也有研究运用局域场方法测量电势,观察雪崩是否扩展[21-23]。

全皮层尺度

如下研究从全脑皮层的尺度上研究了不同状态下小鼠或人类大脑的雪崩现象:小鼠静息态(麻醉-清醒)[24,25] ,小鼠任务态(看电影)[26],人脑静息态fMRI, 从小的尺度到全脑都可以发现服从幂律分布的复杂性活动[27,28]。

在物理学上幂律分布与临界性、相变有关,类似于自旋铁磁体的临界性,即在温度升高到一定值后,磁性消失,波动变化服从幂律分布。在大脑活动研究中可以理解为自组织临界性,无需细调参数,因此具有一定争议[29]。

有外界刺激时

当有外界刺激时,大脑会进行响应。临界性会发生偏移,对外界的刺激会相较变得不敏感[30,32]。这种系统可以对外界刺激随时做出响应,但是需要消耗大量的能量的大脑临界态可以可以临界态解释大脑“暗能量”,即需要大量的能量构建大脑复杂自发动态系统。

1.4.3震荡

神经振荡是中枢神经系统中神经活动的一种规律。神经组织可以通过多种方式产生振荡活动,由单个神经元内的机制或神经元之间的相互作用驱动。在单个神经元中,振荡可以表现为膜电位的振荡或动作电位的一种规律的变化。

神经元发放的频率不高,但是震荡的频率可以很高(如在学习与记忆时)[33,34];可以从震荡的角度理解其与功能的关系。震荡有周期性,可以用来预测下一步的神经元活动,在同步震荡之中可以有信息传递的效果[35]。

1.4.4皮层波传播

在神经集群的水平上,大量神经元的同步活动可以产生宏观振荡,可以在脑电图中观察到。而发生在皮层尺度上的振荡便被称为脑电波。大尺度神经慢波震荡,对记忆固化有帮助,有多种传播模式,与结构传播有关系[36,37]。而不同回路中的波传播活动,可能是根据非线性作用产生的[38-42]。

也有团队研究了波传播的动力学[43]。

1.5 大脑作为功能复杂系统

神经系统是一个功能性的复杂系统,受长时间的进化压力,特别要考虑多种功能的优化,应该有一种成本的均衡。这种均衡应反映在功能-结构的关系上面[44]。大脑构建参数所消耗的能量大致运用在发放的产生及突触及信号的传播过程,还有神经元通讯之间神经递质的发放与重构之中[45]。也有团队进行了代谢与效益均衡的研究[46,47]。

对低成本-高效率的均衡的理解:从成本效益的角度理解生物神经系统,对于结构功能关系的生物物理基础及动力学机制来说是很重要的考虑视角,也是一个类脑计算的很好的参考。

通过限制网络结构组织,用经济性的连接方式,尽量的短,尽量的局部化,代谢上神经活动的发放率不应该很高,要稀疏,那如何有效地连接呢?可以参考文献[48-52]。

1.6 大脑建模概述

1.6.1建模的目标、方案与注意事项

建模的目标

更好地理解数据(通过非参数处理如PCA(主成分分析)或参数化模型等方法)

探索隐藏在复杂数据下的工作原理和涌现原理

进行预测/帮助设计实验

发展新的理论/算法

建模的方案

明确建模的目标/尺度/元素(神经元,回路,大尺度,单个或多个尺度)

描述交互作用/复杂性的等级

决定模型的参数/通过数据校准

分析模型以理解机理/做出预测

迭代以改进模型

建模的注意事项

(模型的)计算和分析复杂性vs对机制的理解

生物真实性vs数据可行性(缺失参数)

主要影响因子vs次要影响因子(物理学和生物学)

主体vs细节;可解释性;对神经科学带来的影响

1.6.2两种模型

与数据结合的有现象性和机制性模型两种建模过程[53-55]。近年来也发展出一种介于现象性和机制性模型之间的基于机器学习的建模。

考虑到研究尺度的不同,单个神经元建模可以考虑神经元上的所有结构;大尺度或回路模型则将单个神经元简化,使用HH模型或者是Spike;发放率模型,更适合于大规模模拟;对于集群的模型,mass model用平均场模型描述集群的特性。

而多层次涌现现象则是单元特征与集群相互作用得到的新的特征,是大脑功能动力学的挑战。

第二部分:神经元发放、雪崩与震荡的建模研究

单个神经元的发放如何与雪崩,震荡统一起来?这个统一有什么动力学机理?是否符合cost-efficient?

2.1 基于电导的神经网络模型

在2003年便有研究人员提出基于电导的神经网络模型,在局部回路模型中,刺激简化为随机泊松过程输入,共有2500个神经元,80%为兴奋性神经元,考虑随机网络,突触耦合的定义为s(t)[56]。

实验中能观察到,神经系统出现震荡,但是神经元好几次震荡才会产生一次发放,这种模式下的神经元发放是无规则的[57]。

针对这种现象,有研究通过兴奋性,抑制性神经元网络进行建模:

I-I network[58]

E-I network[59]

Biological model: 兴奋和抑制因为相互作用,竞争关系而具有平衡态,耦合依赖于电压;Ising model: 耦合为电流,不依赖于电压[60]。

在本节介绍的基于电导的模型中也能观测到神经元活动现象:兴奋和抑制的电流耦合的紧密,当改变参数时,会出现中间自组织的情况。兴奋越来越快,抑制越来越慢时,同步越来越强。在生物合理的参数空间下同时涌现:

1.单个神经元的无规则随机发放;

2.伽马波的震荡;

3.幂律形式的临界雪崩。

或是能观测到出现有部分关联但倾向于随机的过渡状态[61]。

从机理上,这处于一种兴奋-抑制的平衡态,并非平均值上的平衡,而是动态的平衡,网络较为稠密,而且兴奋-抑制连接有时间差,允许少部分兴奋性神经元发放,因网络是随机网络,神经元发放也是无规则的。模型也可以运用平均场理论近似简化为六维的模型。

第三部分:少即是多,神经回路动力系统的成本效益

神经元的发放可以表征信息。研究希望这样表征信息的熵比较高,通过对熵进行最大化推导,考虑信息的不同表征,可以得到不同表征结果[62,63]。

神经元的分布在空间并不均匀。随机网络是稀疏的,将其空间安排重新组织更贴近于模块化的生物模型,可以观察到有关联的神经发放,发放率下降,链接代价也下降, 而网络对外刺激相应更敏感, 实现“少即是多 (less is more)”[64]。

思考:扩展到更大的模型,这种模型如何处理信息,如何基于这种模型进行AI的开发?

第四部分:学习、记忆等大脑自组织活动

前面介绍过大脑有自发的活动,很多时候外界刺激要与神经活动交互。外界输入引起脑的相应的可变性(trail-to-trail variability)减小。很多不同尺度的例子证明静息态大脑处于临界态,即使在偏移的情况下也很快重回临界态。雪崩呈幂律分布。实验的亮度会改变gamma波的频率[65-69]。

通过研究实验看到的神经回路对外界响应的特点能否统一到模型中以及其与自组织临界态的模型的关系发现,图中A B C 比较不同的信号到来时间的trail-to-trail,信号到来前的可变性较大,信号到来后响应的可靠性变大。

文章图片3

图2. 突触对外界响应的动力学

平均场模型也能模拟这种情况。输入不改变临界态的稳定性,但是会改变可靠性[70]。

自发动力学对于神经系统突触的处理过程:如学习或记忆的相关研究。一组神经元构成一个集群来表征记忆。

与学习相关的记忆过程的可塑性:两个神经元之间的连接依赖于发放的时间,突触前先发放,受到驱动的神经元再发放,则连接加强。这种时间尺度的精度为毫秒级,新的实验发现这种突触可塑性也会影响其他神经元的连接。

学习与记忆过程中经常观测到gamma波,或是gamma和theta的整合。这些复杂的动力学如何通过可塑性影响学习与记忆?模型将学习记忆的动力学和网络连接共变化的环状机制分开成两部分进行研究,分别理解其中一个的作用,最后再整合起来研究共演化如何影响学习与记忆[71-73]。

在学习过程中,网络自组织共演化网络中,有外界驱动的神经元的连接会有很快地加强。学习的过程中能观测到神经元spike的模式变化很大,震荡中的gamma波的出现意味着学习效率的增长[74]。

小鼠E-I神经元突触有可塑性,受到γCaMKII蛋白酶影响,若将这种蛋白酶敲除,E-I可塑性消失,但E-E可塑性不受影响。并发现该操作不会影响短期记忆,但是将其固化为长期记忆便会受到此操作影响[75]。

文章图片4

图3. 行为方式与分析动力学的结合模型,左图为分子动力学影响,右图为行为方式。可通过右下角模型将两者结合

通过实验验证上述模型。实验上可能不易进行跨尺度研究,但建模会给出帮助并指导实验[76]。

神经元、神经元网络层次的介绍结束。

第五部分:恢复清醒过程中皮层波的传播

在分析波的传播时,用相速度场 (PVF) 刻画大脑点活动。时间、空间上波的传播与相位速度的变化有关,右图为麻醉情况下相位场变化动图[77,78]。

文章图片5

图4.麻醉状态下相位场变化

波源波汇出现位置与脑的大尺度解剖有关。信息处理在大脑中有层次性,如视觉信号在大脑中传播是从低级到高级脑区传播。按照这种排序,波源波汇更多出现在低级脑区[79]。

在考虑了空间传播后,有研究提出Neural field model(波动方程)。麻醉会影响抑制神经元的时间参数,改变脑区耦合的扩散强度,意为既改变了局部动力学,又改变了传输的效果。清醒时又会偶尔发现传播快的大型波动,模型与实验符合[80,81]。

从麻醉到清醒的动力学过程也是意识恢复的过程。通过模型可以理解局部回路在清醒时是兴奋性增强,这种局部变化会影响long range连接(脑区之间的连接)对信号传播的作用。如在麻醉时,对S1刺激,会逐渐传播到S2,但并不会引起S2的响应,因S2兴奋性不够大。清醒时long range能传播到S2形成新的传播源,与S1开始竞争。模型能够帮助理解清醒时大脑对外界响应,底层结构起作用,但是在麻醉时可能起不了很强的作用。

文章图片6

图5. 从麻醉到清醒的信号传播过程(研究投稿中)

第六部分:大尺度脑结构的功能特征处理

脑网络有什么特殊的结构特征?结构-功能关系又是如何?作为一个信息系统如何达到对信息的特异处理及整合?数据已有(动物的)结构网络和(人的)功能网络,但是人的结构网络测量(DTI)仍是较晚才出现[82-88]。

猫的脑网络中,各种子系统之间互有连接,称为hyper-community[89]。

猴子的脑区:网络脑区功能上是分开的,结构上是成块的。研究发现区域上分开的局部网络需要long range连接,少数脑区负责长程连接,而这些少数脑区内部连接十分紧密。这种集中对于信息整合很重要,对于功能分划也重要[90]。

结构与动力学的关系方面:物理科学中运用晶体物理研究该关系:如原子间耦合关系的震动modes与声学、热学结构相关。通过邻接矩阵得到Laplacian矩阵,再进行特征向量分解,特征向量能够表征运动方向。给定一个随机的初始条件,则可以了解物体接下来的运动模式[91-95]。

对结构多层次模块的组织:DTI得到的结构性连接。 发现mode2正负分别对应左右脑,可能提供first night effect的一个结构基础。mode3又会细分地对应前后脑。将大脑分成268个脑区。

文章图片7

图6. 结构多层次模块的组织[96]

缺省模式(default mode):DMN能被分成前脑后脑或左右脑,在认知过程中可能会被单独地激发一部分[97-98]。

运用了很多神经元代表脑区的模型过于细致不利于分析,如下研究提出的线性模型可以直接写出脑区之间的功能性连接。给定耦合强度和结构连接(SC)可以直接分析出FC。可以再与empirical FC(如从BOLD序列得到的FC)作比较[99-101]。

但是将半脑内深层次连接打乱,其他不变,发现大脑网络的复杂性降低,完全随机化也能发现复杂性降低[102]。

进一步分析复杂性的组织形式:多层次模块划分的方法运用于功能连接(特征向量分解等)。如第一个mode脑区一致,数据中能量占比最大。可以不断地细分mode,得到不同level mode的能量占比[103]。

大脑在功能的整合-分离状态间一直切换[104]。研究运用高斯线性模型,发现耦合增加,功能的分离变弱,整合变强。正常人大脑平均来说处于分离-整合的平衡状态,但是个体会有差异。这种差异是否与个人能力有关[105]?人群中,不同脑区的变化与能力的变化是一致的(基于个体差异的建模)[106]。脑区之间也是不均匀的:不同脑区之间也有层次性,体现在神经递质的浓度,神经元密度等。那么如何把微观的神经解剖特性融合到大尺度模型?不同尺度的回路如何建模[107-114]?

因此对于大尺度结构功能网络:静息状态下,动力学组织能进行分离和整合,但是有个体差异;该分离和整合的差异与能力有关。

第七部分:基于机器学习的神经计算模型

传统的构建神经网络模型往往需要从结构原理出发自下而上进行。而利用机器学习模型作为大脑模型,更像是从功能出发。一方面,人工学习出来的网络比大脑简单许多,但是完成任务较好。另一方面,通过训练模型,人工神经网络可以启发我们开发与人类智能相关的AI。如考虑E-I平衡也可以作为正则化条件放入训练[115]。

如下介绍部分基于机器学习研究大脑活动的研究:

多任务态训练揭示了神经活动规则:不同的外界信号输入大脑,对应不同的神经活动对任务进行表征,表现出大脑多尺度模块化的组织[116,117]。

时间处理的建模理念(Dr. Bi Zedong, Institute for Future Qingdao University):工作记忆如何处理时间?空间信息如何表征?网络中什么结构可以支撑时间的表征[118]?

通过训练(刺激),得到动作神经元在时间限内给出反应。在工作记忆中,脑的状态会变化,趋于一个吸引子或瞬态(transient)[119,120]。

第八部分:总结与展望

在对大脑的研究过程中,我们会发现很多问题:数据复杂,对于数据之下的组织机制不理解,或是不能想象数据产生的过程,很难想象这种无规则的发放在空间中体现出一种组织现象。如何应对数据上的诸多问题?也许我们需要从数学建模的角度理解隐藏在数据背后的神经活动机制。在动力学下刻画大脑处理信息的机制[121-137]。

一般来说,神经动力学作为一个跨学科的研究,构建复杂脑动力学和认知,非线性动力学的方法与心理学,神经科学的合作,可以研究更多更具体的问题。未来的神经科学研究中,可能更会出现这样的合作关系:神经科学(生物实验)- 数据分析抽取特征-建模和理论分析、数据处理与机制研究。

生物的智能可能就隐藏在大脑的复杂性之中。如何理解这种复杂性?理解智能的表征?这仍是一个挑战[138]。

周昌松 | 作者

懿章 | 整理

邓一雪 | 编辑

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多