
大脑如何表征一个本质上连续的世界?虽然我们可以轻易地回忆起密码或姓名等离散的事实,但我们的大脑却在不断地追踪模拟量——我们面向的方向、声音的位置,或是日落的精确色调。传统的记忆模型将稳定状态设想为孤立的点,但这无法解释神经系统如何存储并无缝更新这些流动的变量。这一差距凸显了神经科学中的一个基本问题:什么样的神经机制能够实现连续信息的表征?
本文将探讨连续吸引子理论所给出的优雅而有力的答案。我们将分两大部分来阐释这一概念。首先,在“原理与机制”部分,我们将探索其理论基础,揭示对称性的数学原理如何使一个神经元网络能够创造出一种稳定但可移动的表征。随后,在“应用与跨学科联系”部分,我们将看到这一抽象理论如何为一些卓越的生物学发现提供具体的解释,从大脑的内部罗盘到工作记忆的本质。
要真正理解一台机器,我们必须超越其功能,去把握使其成为可能的原理。一个由简单神经元组成的网络是如何构想出世界地图、记住一个方向或追踪一个位置的?答案不在于任何单个神经元,而在于它们相互作用的集体交响乐,这场演奏遵循着美丽而深刻的对称性与稳定性概念。让我们踏上旅程,去揭示这些原理,从思想本身的地貌开始。
想象一下,记忆是一片地貌。当你学习某个离散的东西,比如朋友的名字或一个具体事实时,就好比神经网络在这片地貌上刻出了一个陷坑或盆地。一个初始的想法,也许是模糊的回忆,就像将一颗弹珠放在地貌的边缘。网络的动力学——这个世界的“引力”——会使弹珠滚下山坡,直到它在最近的陷坑底部停下来。这个静止点是一个稳定状态,即点吸引子。这个由部分线索引出完整记忆的过程,我们称之为模式补全。每个陷坑都是一个孤立的记忆,与其他所有记忆截然不同。
但那些非离散的记忆呢?想想你所面向的方向。它不是少数几个可能的选项之一,而是一个圆周上的连续变量。大脑如何存储这样的值?一个充满孤立陷坑的地貌是行不通的。如果你稍微转一下头,你的大脑状态应该从一个陷坑跳到另一个完全不同的陷坑吗?这似乎不太可能。
相反,大自然找到了一种更优雅的解决方案。为了存储一个连续的值,大脑需要的不是一个陷坑,而是一道山谷。想象一条完美的圆形平底护城河。放在这条护城河里的弹珠可以以同等的稳定性停留在圆周上的任何一点。这就是连续吸引子的本质:一个稳定状态族,它们在神经活动的高维空间中形成一条连续的线、环或面。系统状态沿着这条“山谷”的位置——即一群神经元中持续存在的活动“峰”——编码了连续变量,无论是你头部的朝向还是视野中某个物体的记忆位置。
一个神经元网络是如何塑造出如此完美、平坦的山谷的?秘诀在于对称性。
思考神经元之间的连接,即突触。如果任意两个神经元之间连接的强度仅取决于它们属性的差异(比如它们偏好的头朝向之差),而不是它们的绝对身份,那么这个网络就拥有了一种基本的对称性。对于一个由头朝向细胞组成的环来说,这意味着从神经元到神经元的连接强度与从神经元到神经元的连接强度相同,对于任何位移都是如此。这个特性被称为旋转不变性。一个具有此特性的连接矩阵,其中,被称为循环矩阵——每一行都只是前一行的循环移位。
网络结构中的这种对称性对其动力学产生了深远的影响。如果网络能够维持一种稳定的活动模式——比如说,一个以为中心的发放“峰”——那么旋转对称性保证了该峰的任何旋转版本——以、或任何其他角度为中心——也必定是一个稳定状态。系统对任何方向都没有内在的偏好。因此,一个连续的稳定状态族从连接的底层对称性中自动产生。同样的原理可以扩展到更高维度;一个连接具有平移不变性的二维网络可以支持一个二维的吸引子流形,这构成了绘制空间地图的网格细胞活动的基础。
这是自然界中统一性的一个美妙例子:抽象的群对称性数学概念为一项基本的认知功能提供了蓝图。
让我们回到圆形山谷中的弹珠。如果你把它向上推向山谷陡峭的壁,它会很快滚回谷底。系统在这些横向方向上是稳定的。但如果你沿着山谷平坦的底部轻轻推它一下呢?它不会滚回来。它只是移动到一个新的静止位置。系统在这个方向上既不稳定也不稳定;它是中性稳定的。
这是连续吸引子的决定性特征。它对于会破坏活动峰形状的扰动是稳定的,但对于仅仅移动活动峰沿山谷位置的扰动则是中性的。用动力学系统的语言来说,这意味着网络动力学在吸引子上任意一点的线性化具有一个非常特殊的性质:它至少有一个特征值恰好为零。这个零特征值对应于沿着吸引子的中性稳定方向,其相关的特征向量就是所谓的戈德斯通模,代表了活动模式的无穷小位移。对于像线或环这样的一维吸引子,恰好只有一个这样的零特征值。
这种中性稳定性是一把双刃剑。一方面,它使网络变得有用。它允许存储的记忆被平滑地更新。例如,在头朝向系统中,代表角速度的信号可以用来以正确的速度“推动”活动峰沿着环形吸引子移动,从而使网络能够执行路径整合——通过整合其随时间变化的旋转运动来追踪自身的方向。
另一方面,这一特性使系统极其精巧微妙。一个完美平坦的山谷的存在依赖于力的“精确平衡”。神经元衰减到静息状态的自然趋势(一种“泄漏”)必须被其邻居的循环兴奋完美抵消,但仅限于形成活动峰的特定活动模式。这需要极高程度的精细调谐。在数学上,这意味着系统的一个关键参数,即突触强度和神经元响应性(增益)的组合,必须被调谐到一个精确的临界值。例如,在一个环形模型中,连接核的第一个傅里叶系数必须与神经元增益完美匹配,使得它们的乘积恰好为一:。与这个完美调谐的微小偏差,都会使山谷不再平坦。
当这种完美的对称性被打破时,会发生什么?这在任何真实的生物系统中都必然会发生。我们理想模型中那美丽平坦的山谷变成了一片崎岖不平的地貌。
这可能通过两种主要方式发生。首先,外部输入,比如看到一个显著的地标,可以作为一种微小而持续的力作用于网络。这种力有效地倾斜了能量地貌,创造出优先的静止点。连续的吸引子流形被打破,坍缩成一组离散的、稳定的点吸引子。活动峰被“钉住”在与外部线索对齐的位置。
其次,大脑本身并不是完美对称的。神经元各不相同,突触权重也是可变的。这种异质性,一种“淬火噪声”,也打破了对称性。它使能量山谷变得粗糙,创造出一个由微小山丘和洼地构成的地貌。如果异质性太强,它可能完全摧毁吸引子。但如果它很弱,它可能会产生令人惊讶的有益效果。在一个完美平坦的山谷中,随机的神经噪声会导致活动峰随时间扩散消失——记忆就这样漂移和消退了。但在一个略微崎岖的山谷中,活动峰可能会暂时卡在某个小洼地里。这种钉扎效应抵消了扩散,使记忆更加鲁棒并延长了其持续时间。在这里,我们看到一个有趣的权衡:系统为了获得鲁棒的长期存储,牺牲了完美的连续表征。
我们通常认为吸引子是最终的静止点。但是,创造稳定记忆地貌的同样机制也能产生永恒的运动。一个常见的生物学特征是发放频率适应:持续剧烈发放的神经元会变得“疲劳”,响应性降低。
考虑我们的活动峰。峰值处的神经元发放最多,因此它们适应得也最厉害,从而在后方形成一片兴奋性降低的拖尾。然而,位于活动峰前方的神经元仍然是新鲜的,随时准备发放。这种不对称——一个疲惫的过去和一个渴望的未来——产生了一个将活动峰向前推动的净“力”。如果适应性相对于其衰减率足够强,这种自我诱导的推动力可以使活动峰自发地开始移动,并稳定在沿环的匀速旋转状态。静态吸引子变成了一个动态的行波,而这一切都无需任何外部速度指令。这揭示了看似简单的连续吸引子是一个丰富的动力学对象,不仅能够支持静态记忆,还能支持内部产生的、持续的变化模式。
在探寻了连续吸引子的原理之后,我们已经看到对称性与稳定性如何共同作用,创造出一种卓越的计算设备。我们看到,在一个具有连续对称性——如在环上旋转或在平面上平移的能力——的系统中,网络可以在该对称方向上的任何位置维持一个稳定的活动模式。这创造了一个“中性”或“戈德斯通”模,一个系统可以无成本移动的稳定状态山谷。现在,我们离开抽象的原理世界,进入广阔的现实,去看看大自然——以及人类的智慧——在何处应用了这一优雅的思想。我们会发现,连续吸引子不仅是一个数学上的奇趣之物,它还是一个深刻而统一的概念,为理解大脑如何导航、记忆和思考提供了一个强有力的视角。
连续吸引子最著名、最直观的应用或许是解释我们如何知道自己面向何方。在从老鼠到人类的哺乳动物大脑中,存在着一组“头朝向”细胞。当动物的头部指向一个特定的、偏好的方向时,这些神经元中的每一个都会达到最大发放率。随着动物转身,活跃的神经元以一种协调的方式变化,仿佛一束活动的聚光灯正在扫过整个神经元群体。
一个神经元网络如何实现这一点?一个一维环形吸引子提供了一个惊人简单而强大的模型。想象一群神经元,它们偏好的方向分布在一个从到度的圆周上。如果这些神经元之间的连接结构具有局部兴奋和更广泛的抑制,并且至关重要的是,如果这种连接模式在环的周围都是相同的(具有旋转对称性),那么网络就可以维持一个局域化的活动“峰”。由于对称性,这个峰没有偏好的位置;它可以存在于环上的任何地方,完美地代表任何可能的头朝向。当动物转动头部时,来自前庭系统的角速度信号就像一阵轻柔的“风”,平滑而连贯地推动活动峰在环上移动。
这个理想化的模型做出了几个关键预测。首先,它提出方向并非由单个“北方”神经元编码,而是由整个群体的集体活动模式编码,这种模式可以被以惊人的精度读出。其次,在有限神经元和生物噪声的真实世界中,理想吸引子的完美平坦山谷会变得略微崎岖。这意味着在没有外部线索的情况下,活动峰不会保持完全静止,而是会随着时间的推移缓慢地游走或扩散,导致内部方向感中误差的逐渐累积。这种扩散漂移是连续吸引子模型的标志性预测之一([@problem-id:4055196])。
同样的原理优美地从一维的方向世界扩展到二维的位置世界。在内嗅皮层——一个对记忆和导航至关重要的大脑区域——我们发现了“网格细胞”。这些神经元在空间的多个位置发放,形成一个令人惊叹的、规则的六边形晶格,平铺着整个环境。一个二维连续吸引子模型为这一现象提供了令人信服的解释。在这里,神经元排列在一个平面上而不是环上,但连接原理是相同的:局部兴奋和更广泛的抑制。如果这个平面具有环面拓扑结构(像甜甜圈的表面,具有周期性边界条件),它就拥有完美的平移对称性。这使得一个稳定的、周期性的活动峰模式——一个六边形晶格——得以出现和维持。这个晶格充当一个坐标系,或空间的度量。正如速度信号移动头朝向环上的活动峰一样,运动信号也可以在神经元平面上平移整个网格模式,使动物能够通过路径整合来追踪其位置。环面拓扑结构不仅仅是数学上的便利;它是消除“边界效应”的关键,否则这些效应会扭曲网格并破坏其作为无缝空间地图的功能。
这些系统并非孤立工作。大脑通过耦合这些基本模块来构建复杂的表征。例如,海马体中的一些“位置细胞”仅在一个特定位置发放,但其发放强度也取决于动物的头朝向。一个将一维头朝向环形吸引子与二维位置吸引子耦合的模型优雅地解释了这一点。头朝向网络可以向位置网络提供一个空间上均匀但方向上调谐的输入。这个输入不会迫使位置野移动,但它会调制其振幅,使细胞在动物处于正确位置并且面向正确方向时发放得更强。这种美妙的协同作用表明,大脑如何能够结合信息流,创造出更丰富、更具情境性的世界表征。
除了空间导航领域,连续吸引子还为理解工作记忆等认知功能提供了一个强有力的框架——工作记忆是指将信息在我们的脑海中“在线”保持短暂时间的能力。考虑一下记住一种精确蓝色色调的任务。这是一个模拟的,或连续的信息片段。一个具有连续稳定状态的连续吸引子,为这种记忆提供了一个自然的神经基底。特定的色调可以被编码为在一个代表颜色的神经流形上活动峰的位置。
这与记住一个离散的类别,例如交通灯是红色、黄色还是绿色,形成了鲜明对比。对于类别记忆,一个更鲁棒的机制涉及一组不同的、孤立的“点吸引子”。每个点吸引子对应一个类别,系统高度稳定,即使在微小扰动后也能返回到同一点。相比之下,连续吸引子在一个方向上是中性稳定的。微小的扰动不会衰减;它们会导致活动峰漂移,从而导致记忆精度的逐渐下降。这种鲁棒的、离散的点吸引子与可塑的、连续的线吸引子之间的区别,为我们在脑海中保持的不同类型信息提供了清晰的神经基础。
这个框架甚至使我们能够与认知心理学中的主要争论建立联系。几十年来,心理学家一直在争论工作记忆容量的性质。它是由固定数量的离散“槽”限制的,你可以完美地容纳几个项目但不能再多?还是它受限于一种可分割的“资源”,你可以容纳许多项目,但随着你增加更多项目,每个记忆的精度会下降?
连续吸引子网络可以被构建来实现任何一种模型。一个具有强大竞争性抑制的网络可以被设计成只支持固定数量的、不相互干扰的活动峰,完美地实现了一个“槽”模型。在这样的网络中,每个项目的记忆精度与存储的项目数量无关,直到达到槽容量。或者,一个具有全局除法归一化的网络,它强制执行总神经活动量的固定预算,实现了一个“资源”模型。随着存储更多项目,分配给每个活动峰的活动减少,共享了资源。这直接预测了每个记忆的精度将随着项目数量的增加而降低。这些网络中的容量不仅仅是神经元数量的问题,而是由几何“堆积”约束与兴奋和抑制施加的突触约束之间的精妙平衡所决定的。这种美妙的联系表明,抽象的认知理论如何能够植根于具体的、生物物理的神经机制。
与任何强大的科学理论一样,连续吸引子模型并非没有受到挑战。它是一个产生可检验预测的假说,从而引来竞争。网格细胞的案例提供了一个完美的例子。与CAN模型竞争的一个主要替代方案是振荡干涉(OIM)模型,该模型提出网格模式并非源于循环网络交互,而是源于每个细胞内多个振荡器的前馈干涉。
这两种模型做出了截然不同的预测。CAN模型假定一个单一的、刚性的网络,其中网格模式由强大的循环连接维持。破坏这些连接(例如,通过沉默抑制性神经元)应该会摧毁网格。而OIM作为一个前馈模型,应该对这种局部损伤不敏感。此外,想象一个实验,在黑暗中扰乱动物的方向感。CAN模型预测,整个网格地图作为一个紧密耦合的单一实体,将连贯地旋转。而OIM模型基于每个细胞中仅由外部线索同步的独立振荡器,预测不同网格细胞的朝向在黑暗中会相互偏离。这就是科学的实践:相互竞争的计算模型做出独特的、可证伪的预测,从而指导未来的实验。
最后,我们可以通过工程学的视角来审视大脑的连续吸引子回路。一个整合角速度来追踪头朝向的环形吸引子,本质上是一个生物滤波器。它与像圆形卡尔曼滤波器这样的工程解决方案相比如何?这种比较很有启发性。卡尔曼滤波器在参数上是高效的,只需要少数几个变量来追踪平均方向及其不确定性。而CAN是资源密集型的,需要数千个神经元和数百万个突触。然而,CAN提供了强大的鲁棒性。其分布式表征提供了优雅降级——少数神经元的损失不会使系统崩溃。此外,虽然卡尔曼滤波器的不确定性在没有线索的情况下会可预测地增长,但一个大型的CAN可以变得非常稳定,其扩散误差随着神经元数量的增加而减少。这里的权衡是,CAN对其对称布线中的微小不完美非常敏感,这可能引入偏差和漂移,而一个精心制定的滤波器则可以避免这个问题。
从老鼠大脑中的罗盘到我们自己心智的黑板,连续吸引子是一个范围惊人的概念。它展示了一个源于物理学和数学的简单对称性原理,如何被进化利用来执行我们所知的一些最复杂的计算。它提醒我们,支配世界的法则中蕴含着内在的美丽和统一,从神经网络中的模式到它们共同创造的思想。