
大脑如何记忆一个持续变化的值,比如你所面对的方向或你在房间里的位置?与对人脸或事实的记忆(这些记忆相对固定)不同,这类信息需要一个既能稳定保持一个值,又能灵活平滑更新它的记忆系统。这种表征和整合连续信息的基本挑战,在一个被称为连续吸引子网络(Continuous Attractor Networks, CANs)的理论框架中找到了一个优雅的解决方案。这些网络为理解大脑如何构建世界的内部地图以及在心智中保持瞬时信息提供了一个强大的模型。
本文旨在连接抽象的数学概念与其生物学实现。我们将探索使神经元网络能够表征连续范围值的核心原理,并了解这一个单一思想如何能解释种类繁多的认知功能。第一章 原理与机制 将剖析CAN的理论机制,从网络对称性在创建稳定记忆状态中的作用,到编码信息的“活动鼓包”的动力学。随后的 应用与跨学科联系 一章将展示该理论的解释力,说明CAN如何为大脑的内部罗盘(头朝向细胞)、其神经“坐标纸”(网格细胞)、工作记忆,乃至人工智能中自发涌现的策略提供一个统一的模型。
想象一下试图记住一个数字。不是电话号码那种固定的、离散的东西,而是一个不断变化的量,比如你转身时所面对的方向。我们大脑中的大多数记忆形式似乎都不适合处理这种情况。你对祖母面容的记忆是一个稳定的模式,它不会逐渐变成你祖父的样子。其他记忆则会随着时间简单地消退。我们需要的是一种特殊的记忆:它能保持一个连续的值,比如一个从 到 的角度,并通过整合微小的运动来平滑地更新它。这就是 路径整合 的挑战,而大脑的解决方案似乎是一种被称为 连续吸引子网络 (CAN) 的优美动力学机制。
为了掌握其核心技巧,让我们想象一个非常简单、抽象的神经网络模型。网络的状态,即一个代表神经活动数值的列表,由向量 给出。网络通过一个连接矩阵 在每个时间步更新自身状态。规则很简单:。如果我们想让网络“记住”某件事,我们需要活动模式能够持续存在。如果我们想让它成为一个完美的记忆,在没有新输入的情况下,该模式应永远保持不变。如果 具有一个“神奇”的属性:一个恰好为1的特征值,这种情况就会发生。与该特征值相关联的特征向量 代表一种特殊的活动模式。如果网络初始状态 与 成正比,那么一步之后,。该模式是完全稳定的。
现在来看整合部分。假设我们加入一个输入 (例如,代表一次小转弯)来轻推网络。规则变为 ,其中 是输入“连接”到网络的方式。如果我们设置得恰到好处——具体来说,使输入向量 与那个神奇的特征向量 对齐——那么输入只会增加到这个持久模式上。状态沿 方向的分量将随时间累积输入,就像把你所有的小转弯加起来一样。其他模式中的任何活动,只要对应于模小于1的特征值,都会迅速衰减。网络变成了一个完美的、无漂移的积分器,其记忆不会消退,而是在新输入到来时沿着 的方向滑移。这种抽象的线性代数揭示了其基本的计算原理:一个用于记忆存储的中性稳定模式,以及一个用于整合的定向输入。
一个杂乱的、生物学上的大脑如何实现如此数学上精确的“特征值为1”?答案似乎在于从一小组神经元转向一片广阔、连续的神经元片层——一个 神经场。与其将神经元视为离散单元的集合,不如将它们想象成画家的画布,其中任何点 的“活动”都可以用一个连续值 来表示。
这不仅仅是一个方便的比喻。这是一个形式化的 连续统极限,描述了如何为一个庞大、密集的单个神经元网络建模。如果我们有一个神经元网格,其中神经元 和神经元 之间的连接强度 只取决于它们之间的距离和方向,那么当神经元数量变得非常大时,输入到一个神经元的离散加和可以被一个积分所取代。离散的权重 变成了一个连续的相互作用 核函数 ,它描述了点 的活动如何影响点 的活动。这种关系是精确的:核函数的值是离散权重乘以神经元密度。然后,整个神经元片层的动力学可以用一个单一、优雅的积分-微分方程来描述。
在这块神经画布上会出现什么样的活动模式?如果所有神经元都以某个统一的基线速率放电,画布就是空白的。但大脑可以画出一幅画。关键因素是相互作用核函数 的形状。一个常见且强大的模式是 局部兴奋和周围抑制:神经元强烈兴奋其近邻,同时抑制较远的神经元。由于其形状,这通常被称为“墨西哥帽”核函数。
想象一下,在一个小区域内,活动出现了轻微的随机增加。这些被兴奋的神经元会进一步兴奋它们的近邻,从而加强最初的波动。同时,它们会发出抑制波,使周围区域安静下来,防止活动扩散到各处。如果网络的整体“增益”——衡量神经元对其输入响应强度的指标——足够高,那么局部合作与长程竞争之间的这种拉锯战会导致 图灵不稳定性。枯燥的、均匀的状态崩溃了,一个稳定的、局部化的 鼓包 从背景中结晶出来。这个鼓包就是被记忆值的神经表征——例如,它在画布上的位置可以代表头部的朝向。
我们现在触及了问题的核心,即为连续吸引子注入生命力的原理。如果连接规则——核函数 ——在整个神经片层上处处相同,网络就具有 平移对称性。画布上没有哪个位置是预先指定的特殊点。因此,如果一个以某位置为中心的活动鼓包是一个稳定模式,那么一个被平移到任何其他位置的相同鼓包也必须是一个完全有效、稳定的模式。
这是对称性带来的深刻结果。网络没有单一的稳定状态,而是有一整族连续的稳定状态,一个由简单平移关联起来的稳定状态“流形”。这就是 连续吸引子。网络状态可以存在于这个流形上的任何一点,从而使其能够表征一个连续范围内的任何值。我们可以有用于离散记忆的点吸引子,或者用于表征如位置或方向等连续值的 线吸引子 和 环形吸引子。
这种物理对称性有一个精确的数学特征,这又把我们带回了那个“神奇”的特征值。对于一个连续系统,可以自由地移动鼓包而没有任何成本或恢复力,这对应于一个具有 零特征值 的扰动模式。这就是 中性模式,有时也称为 戈德斯通模式。如果你沿着吸引子流形的方向“推动”鼓包(即,你试图移动它),它会很乐意移动。这对应于平移扰动的特征向量具有零特征值。然而,如果你试图以任何其他方式扰动鼓包——例如,试图让它变宽、变窄或变高——网络动力学就会抵抗。这些“正交”的扰动对应于负特征值,意味着它们会随时间衰减,迫使网络状态回到吸引子流形上。正是这种沿流形的中性稳定性和在所有其他方向上的吸引稳定性的结合,定义了CAN。
这一机制的一个关键要求是完美的平移对称性。但一个有限的大脑如何能包含一个没有边界的网络?如果活动鼓包到达了神经片层的“尽头”,对称性就被打破了,整个方案就会崩溃。大脑采用了一种具有非凡数学优雅性的解决方案:它通过将神经片层包裹成一个 环面 ——甜甜圈的形状——来消除边界。
为了表征像头朝向这样周期性的一维变量,神经元可以排列在一个环上。经过 会让你回到 。为了表征在房间中的二维位置,神经片层可以被包裹成一个二维环面。从“右”边缘移出会让你在“左”边缘重新出现,从“上”边缘移出会让你出现在“下”边缘。在这样的域上,平移是一种完美的、不被破坏的对称性。一个由速度输入(通过类似 的项)驱动的活动鼓包,可以平滑且无限地滑行,而永远不会碰到边界或受到“边界效应”的影响。这种拓扑选择确保了完美对称性的数学抽象可以在一个有限的系统中物理实现。
那么,这是一种完美的记忆吗?理想模型是美好的,但现实世界是混乱的。使连续吸引子起作用的那个特性——它的中性稳定性——也正是它的致命弱点。
首先,大脑是充满噪声的。神经元的放电具有一定程度的随机性。这种持续的、微小的、随机的扰动会作用于活动鼓包。由于沿吸引子流形没有恢复力,这些随机的踢动会累积起来。鼓包不会停留在原地;它会进行随机游走,随着时间的推移 扩散 离开其原始位置。记忆会慢慢漂移并变得不准确。
其次,真实的生物网络并非完全均匀。神经元的特性和它们连接的强度会因地而异。这种 异质性 打破了完美的平移对称性。吸引子流形那平滑、平坦的“山谷”变成了一个崎岖不平的地貌。中性的、零特征值的模式被“抬升”,在地形的“山峰”处分裂成小的正特征值,在“山谷”处分裂成小的负特征值。鼓包不再能自由地滑到任何地方。它会被山峰排斥,被山谷吸引,实际上被“钉扎”到一组离散的偏好位置上。连续吸引子碎裂成一个 离散吸引子。
如果内部地图因噪声而不断漂移,又因不完美而卡在固定的“车辙”里,它怎么可能对导航世界有用呢?大脑的解决方案既简单又巧妙:它利用外部世界来不断校正其内部地图。
当你环顾四周时,突出的视觉 线索 ——地标——提供了一种绝对的方向感。这种外部信息就像一个锚,产生一种吸引力,将内部表征(活动鼓包)拉向真实的、以地标为参考的方向。我们可以将此建模为鼓包位置动力学中的一个简单误差校正项。想象一下,地标线索施加的“拉力”与网络估计的角度 和真实的线索角度 之间的差异成正比。
这种耦合的结果是显著的。地标耦合的强度,我们称之为 ,直接抵消了两种误差来源。由内部速度信号偏差引起的稳定、系统性的漂移减少了 倍。由神经噪声引起的随机、扩散性的游走也同样被抑制了 倍。一个与现实更强的锚定提供了一个更准确、更稳定的心智地图。这一优美的综合揭示了最终的原理:大脑创造一个鲁棒的导航系统,不是通过构建一个完美的、孤立的积分器,而是通过巧妙地将一个“足够好”的内部计算器与来自它所试图表征的世界的持续、校正性反馈相结合。
在探索了连续吸引子网络的抽象原理之后,我们可能会倾向于将它们视为一个美丽但纯粹的理论奇珍。然而,事实远非如此。这个想法真正的魔力,其深刻的美丽,在于它解释和统一各种现象的惊人力量,从大脑导航系统的具体运作,到记忆的最深层原理,甚至人工智能的涌现策略。正是在应用的世界里,“源于对称性的稳定状态族”这一简单思想才真正焕发出生命力。
想象你置身于一个完全黑暗的房间。你如何知道自己面向哪个方向?你有一种内在的方向感,一个无需光线就能工作的罗盘。神经科学家在大脑中发现了这个罗盘的物理基础:一群“头朝向”细胞。每个细胞在头部指向其偏好方向时放电最强。当头部转动时,活动峰值的“聚光灯”从一组细胞移动到下一组,无缝地追踪动物的朝向。
什么样的机制能够产生这样一种稳定而又可移动的表征?这正是连续吸引子网络的典型应用。如果我们想象神经元根据其偏好方向排列在一个逻辑环上,网络的动力学,由局部兴奋和更广泛的抑制所支配,会自然地塑造出一个具有圆形能量最小谷的能量景观。任何处于该谷之外的状态——任何杂乱无章的活动模式——都会迅速“滚下山坡”进入谷中,形成一个单一、稳定的活动“鼓包”。连接的对称性,即两个神经元之间突触的强度仅取决于它们偏好角度的差值,确保了环上的每个位置都是鼓包停留的同等好位置。其结果是一族连续的稳定状态——一个吸引子——形状为一个环,即 。鼓包在这个环上的位置就是大脑对“哪个方向是前方”的内部表征。这个模型不仅仅是一个粗略的比喻;它对神经回路做出了具体的预测。例如,局部兴奋性反馈和全局抑制之间的平衡决定了活动鼓包的宽度和稳定性,这个预测可以通过数学建模抑制性中间神经元的增益来加以探索。
这是一个了不起的成就,但动物需要的不仅仅是罗盘;它需要一张地图。它需要知道自己在哪里。在内嗅皮层发现的“网格细胞”揭示了大脑的内部“坐标纸”。这些细胞以一种惊人规则的六边形模式放电,该模式铺满了整个环境。这样的模式是如何产生的?连续吸引子的原理再次提供了最优雅的答案。这个概念从一维的环扩展到了二维的片层。在这里,网络的布线是平移对称的,创造了一个能量景观,其最低能量状态不仅仅是一个单一的鼓包,而是一个周期性的鼓包晶格。数学表明,一个简单的连接核函数,由三个互成 角的余弦波组成,自然会产生六边形模式。正如环形吸引子有一族对应于旋转的连续稳定状态一样,这个片层吸引子也有一族对应于平移的二维稳定状态。等效状态的流形是一个二维环面,,活动模式在该流形上的位置代表了动物的位置。
当我们用CAN框架做出可检验的预测,以区别于竞争理论,如振荡干涉(OI)模型时,其威力变得更加清晰。例如,CAN模型预测网格模式是网络的刚性、集体属性。因此,同一网络中两个网格细胞的相对放电位置应该随时间保持稳定。此外,由于网格间距是由“硬连线”的网络连接设定的,改变速度输入的增益应该只会改变内部表征移动的速度,而不会改变网格本身的间距。而OI模型,它通过独立振荡器的相位来构建网格,则做出不同的预测:由于独立的噪声,相对相位可能会漂移;改变速度到频率的耦合应该会直接重新缩放网格间距。旨在探究这些差异的实验,例如通过在黑暗中短暂扰乱动物的方向感,为用现实来检验这些优美的想法提供了强有力的方法。
更奇妙的是,该模型还能解释真实系统的细微不完美之处。一个完美的、对称的CAN会允许网格朝向指向任何方向。但实际上,网格模式通常会与围栏的墙壁对齐。一个稍作修改的CAN模型解释了原因:如果速度信号的增益只是有一点点各向异性——比如,南北向移动的增益比东西向的强——这种对完美对称性的微小破坏会为朝向本身创造一个新的、更弱的能量景观,导致网格“锁定”到相对于环境的偏好方向上。
使用中性稳定状态来存储信息的原理远比导航更为普适。它或许正是工作记忆的本质——在刺激消失后将一条信息保持在心智中的能力。考虑一只猴子被训练在做出眼动之前记住一个目标位置几秒钟。来自前额叶皮层的记录揭示了“持续性活动”:代表目标位置的神经元在整个延迟期间持续放电。
这同样可以被理解为一个连续吸引子。网络被调整得使其雅可比矩阵有一个非常接近零的特征值,对应于一个可以存储记忆的“边缘模式”。所有其他特征值都是强负的,意味着任何与记忆流形不对齐的扰动或干扰物都会被迅速抑制。因此,CAN为存储一个任务相关变量并同时保护它免受噪声和干扰提供了一种优美的机制。抽象的记忆化身为大脑高维状态空间中一个稳定流形上的物理位置。
大脑并非由孤立的模块组成。其强大的力量来自于综合信息。CAN框架为描述这种综合提供了一种自然的语言。例如,海马体中的一些神经元充当“位置细胞”,仅当动物处于特定位置时才放电,但它们的放电也受到动物头朝向的调节。大脑如何将“哪里”和“哪个方向”结合起来?
通过将一个二维片层吸引子(用于位置)与一个一维环形吸引子(用于头朝向)耦合。想象一下,头朝向网络有一个代表当前朝向的活动鼓包。这个鼓包的状态可以被“读出”,并用作一个空间上均匀但方向上调谐的输入,施加到位置网络上。这个输入不会将位置鼓包推到新位置,但它会调节其振幅——使位置细胞放电更强或更弱。同时,来自位置网络的简单反馈可以帮助将头朝向环锚定到环境线索上。这种优雅、对称耦合的结果是一群自然地表征了变量联合体(位置和方向)的细胞。
这种耦合揭示了一个惊人深刻的真理。一个动物在平面上的状态不仅仅是其位置 ,还包括其朝向 。这些变换——平移和旋转——构成了一个被称为欧几里得刚体运动群 的数学结构。路径整合,即根据你的速度更新你的位置和朝向的过程,等同于在这个抽象的数学空间中导航。大脑的网格-头朝向联合系统似乎是这种抽象代数的一个物理实现。该群的平移生成元通过由速度驱动的网格模式的位移来实现,而旋转生成元则通过由角速度驱动的头朝向环的位移来实现。这种联合编码方案正是正确实现该群李代数的对易关系(如 )所必需的,该关系简单地陈述了:旋转一个向前步进生成元的动作会将其变为一个侧向步进生成元。大脑通过进化,发现并实现了运动的基本数学原理。
有人可能会认为,如此完美的对称网络必须由人工精心设计。但最近最激动人心的发现之一是,事实并非如此。当我们采用一个通用的、随机连接的循环神经网络(RNN),并使用现代机器学习方法训练它执行工作记忆任务时,它会自发地学习到一种类似的解决方案。
训练过程由在延迟后正确回忆信息的简单目标驱动,在网络巨大的状态空间中开辟出一个低维、缓慢的流形。训练后的网络的雅可比矩阵揭示了相同的特征:一个或几个特征值聚集在零附近(对于连续时间模型)或一附近(对于离散时间模型),对应于用于存储信息的缓慢、近中性的方向。所有其他特征值都是强收缩的,提供了必要的稳定性。网络没有完美的、内置的对称性,所以它学习了一个近似的连续吸引子,但其基本原理是相同的。这一发现意义深远:它表明连续吸引子不仅仅是神经系统的一个巧妙技巧,而是解决记忆问题的一个根本性和趋同性的解决方案,被生物进化和人工优化独立地发现。基于对称性的动力学所固有的美感和效用,使其成为一种通用的计算原理。