
大脑以一种离散脉冲构成的快速电信号语言进行交流,然而我们观察大型神经元群体最强大的工具,如钙成像,却只能看到一抹缓慢而模糊的辉光。这造成了一个根本性的脱节:我们如何能从缓慢、间接的测量中破译大脑快速、精确的编码?本文旨在通过深入探讨脉冲推断的世界——即从神经放电的荧光阴影中重建其隐藏现实的艺术与科学——来弥合这一差距。
本次探索分为两部分。首先,我们将揭示脉冲推断的原理与机制,探究一个尖锐的脉冲如何转变为一个持久的荧光信号,以及更重要的,数学上的反卷积如何逆转这一过程。我们将探讨那些利用神经活动已知稀疏性来寻找最合理脉冲序列的优化技术。其次,我们将穿梭于其多样的应用与跨学科联系之中,发现脉冲推断如何被用于解码大脑指令、绘制神经回路中的因果联系,并启发新一代高能效、类脑计算机的设计。我们的旅程始于一个隐喻性的洞穴,学习解读神经活动的闪烁阴影,以理解投射出这些影子的真实形态。
想象你身处一个昏暗的洞穴中,注视着墙壁上闪烁的阴影。你看不见投射影子的物体,只能看到它们模糊、扭曲的轮廓。作为一名好奇的观察者,你的任务是从这些影子的舞动中推断出隐藏物体的精确形状和运动。这正是脉冲推断的精髓。我们在钙成像中看到的微弱发光轨迹就是那些影子;而神经元尖锐、短暂的电脉冲,则是我们试图揭示的隐藏现实。
一个脉冲如何变成荧光辉光,其过程是一系列简短而优雅的生物物理事件。它始于一个动作电位,或称脉冲——一种极其短暂的电信号,仅持续一到两毫秒。为了我们的目的,可以将其视为一个近乎瞬时的事件。这个脉冲会打开神经元表面的微小闸门,让钙离子涌入细胞。
钙离子的突然涌入导致细胞内钙浓度急剧上升。但细胞会立即开始工作,将钙离子泵出,因此浓度开始衰减,就像钟被敲响后声音逐渐消失一样。尖锐的“敲击”是脉冲;而持久、渐弱的“回响”是钙瞬变。我们可以用一个简单而强大的数学概念来捕捉这一点。如果用 表示时间 的钙浓度,它的值取决于前一刻的存量,加上刚由新脉冲带来的任何新增钙量。一个描述此过程的极简模型是一阶自回归(AR(1))过程:
在这里, 代表在精确时刻 的脉冲大小,而 是一个介于 0 和 1 之间的“记忆”或衰减因子。如果 是(比如说),这意味着在每个时间步长,前一刻 95% 的钙会保留下来,其余的则被清除。这个简单的规则完美地描述了指数衰减。脉冲 就像向一个有漏洞的银行账户存入一笔钱;余额 则是在一次小额、持续的提款后所剩下的。更复杂的模型,如 AR(2) 过程,可以捕捉更细微的上升和下降动态,但脉冲在时间上被“抹开”或卷积的核心原理保持不变。
当然,我们无法直接看到钙。我们通过荧光指示剂的镜头来观察它,这是一种经过改造的分子,在与钙结合时会发光。因此,我们用显微镜测量的光,即荧光轨迹 ,是钙浓度的代表。它是 的一个经过缩放和偏移的版本,但它也被任何物理测量中不可避免的噪声所污染——光子散粒噪声、探测器噪声等等。所以,我们最终的观测模型是:
其中 是一个缩放因子, 是一个基线荧光水平,而 是噪声项,我们通常将其建模为服从高斯分布。这个 就是我们在洞穴墙壁上看到的模糊影子。
现在我们面临着巨大的挑战:仅凭含噪声、被抹开的荧光轨迹 ,我们能否反向推算出干净、稀疏的脉冲序列 ?这个逆问题被称为反卷积,它并非易事。噪声中的一个微小波动可能被误认为是一个小脉冲。一个大的钙瞬变可能由一个大脉冲引起,也可能由一连串几个较小的脉冲快速爆发所致。如果没有一些指导原则,可能有无限多种可能的脉冲序列能够生成给定的影子。
幸运的是,我们对神经脉冲的性质有两个深刻的了解。首先,它们是非负的:你不可能有负数个脉冲。其次,它们通常是稀疏的:神经元并非每时每刻都在全力放电。它们以简短、有停顿的爆发形式进行交流,其间是沉默。这两个原则是我们的指路明灯,使我们能够在充满可能解的险恶海洋中航行。
我们可以将我们的搜寻构建成一个形式化的优化问题,一个寻求“最佳”脉冲序列的任务。“最佳”意味着什么?它意味着找到一个脉冲序列 ,它能达到一个完美的平衡。一方面,当我们将它输入我们的正向模型(AR(1)过程)时,产生的钙轨迹应与我们实际测量的荧光数据非常匹配。这是数据拟合项,通常是一个平方误差和,它惩罚我们的模型预测与现实之间的偏差。
另一方面,我们必须强制执行我们的指导原则。非负性,,是一个硬性约束。稀疏性则通过在我们的目标函数中增加一个惩罚项来鼓励。一个常用且非常有效的选择是 惩罚,它就是所有脉冲大小的总和,再乘以一个参数 。完整的优化问题大致如下:
这是奥卡姆剃刀定律的一个优美体现。算法现在必须为其希望包含在解中的每一个脉冲“支付”一个代价 。只有当一个脉冲能够很好地解释数据,以至于数据拟合项的改进超过了惩罚时,算法才会假定该脉冲的存在。一个大的 会导致非常稀疏的解(只有最明显的脉冲被推断出来),而一个小的 则允许更多的脉冲。
解决这个优化问题是一项计算任务,通常采用近端梯度法等迭代算法来处理。这些方法巧妙地在两个步骤之间交替:首先,迈出一小步以改善数据拟合(一个梯度下降步),其次,应用一个“清理”程序来强制执行非负性和稀疏性。这个清理步骤,被称为近端算子,其作用类似于一个软阈值:它将微小、试探性的脉冲压缩至零,同时保留较大、更确定的脉冲,使其成为寻找我们稀疏解的完美工具。
算法固然优美,但其输出是否正确?要信任我们推断出的脉冲,我们必须对照现实进行验证。这方面的黄金标准是同时进行两种记录:在进行钙成像的同时,我们也进行全细胞膜片钳电生理记录。这项技术使我们能够直接“窃听”神经元的电活动,为我们提供每个动作电位的精确、毫秒级的时间信息。这就是我们的基准。
有了基准数据,我们就可以像评估侦探的案卷一样给我们的算法打分。我们统计:
根据这些计数,我们可以计算出更精细的指标。精确率提问:“在算法报告的所有脉冲中,有多大比例是真实的?”其定义为 。在假警报代价高昂的应用中,高精确率至关重要——你不会希望你的脑机接口因为一个虚假的脉冲而抽搐。召回率,或称灵敏度,提问:“在所有实际发生的真实脉冲中,我们找到了多大比例?”其定义为 。F1 分数是精确率和召回率的调和平均数,提供了一个单一、均衡的总体准确性度量。
但仅仅计算脉冲数量是不够的。神经编码是通过脉冲的精确定时来书写的。一个找到了正确数量的脉冲但其定时完全错误的算法并没有太大用处。一个粗略的时间分箱准确性指标,仅仅检查一个脉冲是否发生在一个大的时间窗口内,可能会产生危险的误导。它可能将一个试验报告为“正确”,即使推断出的脉冲晚了几十毫秒,并且违反了系统的延迟预算。这就是为什么像van Rossum 距离这样对时间敏感的指标如此重要;它们衡量整个脉冲序列之间的不相似性,对即使是微小的时间偏移也会施加重罚。
这种对确定性的追求本身也有其微妙之处。对于那些放电非常稀少的神经元,统计基础可能会变得不稳固。当脉冲的概率接近于零时,用于计算不确定性的标准统计方法可能会以令人惊讶的方式失效。例如,如果我们在一次试验中没有观察到任何脉冲,一个幼稚的计算可能会报告脉冲概率恰好为零且不确定性也为零——这是一个荒谬的、过度自信的结论。这至关重要地提醒我们,必须理解我们数学工具的局限性。
最终,我们推断脉冲是有原因的:为了理解大脑在做什么,或者为了做出一个决策。小鼠看到的是刺激 A 还是刺激 B?病人是否即将癫痫发作?推断出的脉冲序列成为做出这一决策的证据。
通常,我们根据脉冲计算一个分数,并将其与一个决策标准,或阈值, 进行比较。如果分数超过 ,我们就宣布“信号存在”。 的选择体现了一个根本性的权衡。一个低阈值是宽松的:它几乎能捕捉到每一个真实事件(高真阳性率),但代价是许多虚惊(高假阳性率)。一个高阈值是保守的:它对其宣布的事件非常有把握(很少假阳性),但它不可避免地会错过许多真实事件(低真阳性率)。
这种权衡被受试者工作特征(ROC)曲线优雅地可视化了。这条曲线针对决策阈值 的每一个可能设置,绘制了真阳性率与假阳性率的关系。一个不比猜测好多少的算法会画出一条对角直线。一个强大的算法会产生一条向左上角急剧弯曲的曲线,这表明它可以在保持低假阳性率的同时实现高真阳性率。这条曲线下的面积(AUROC)提供了一个单一的数字,总结了推断的总体判别能力,且不受任何特定阈值选择的影响。
这个框架的美妙之处在于,它将我们的实用算法与统计决策理论的基石联系起来。著名的 Neyman-Pearson 引理告诉我们,区分两种假设的最强大检验是根据数据在这两种假设下的对数似然比(LLR)设置阈值。如果我们的脉冲推断算法能产生一个作为真实 LLR 的单调函数的分数,它将描绘出可能的最优 ROC 曲线。整个复杂的过程——从洞穴墙壁上的影子,到反卷积算法,最终到一个决策——都被这个优雅的理论原则统一起来。
我们花了一些时间探索脉冲推断的原理和机制,这门艺术旨在破译主宰我们周围世界的断续脉冲语言。但这一切究竟是为了什么?物理学家或许会满足于数学的内在美,但一个深刻原理的真正乐趣在于看到它在百花齐放的不同园地中绽放。脉冲研究并非一个小众的学术追求;它是一把钥匙,解锁我们理解自我、修复损伤以及构建以全新方式计算并与世界互动的机器的能力。现在,让我们踏上穿越这些园地的旅程,看看都孕育出了怎样的成果。
我们的第一站是最自然的一站:生物领域,这里脉冲是母语。几个世纪以来,我们知道大脑通过电信号与身体交流,但在大部分时间里,我们只能听到一片混乱的轰鸣。挑战在于从听清人群的喧嚣,进步到辨别出个体的声音。
想象一下,你正试图控制一个精密的假肢臂。你绷紧你的肱二头肌。肌肉收缩,由你脊髓发出的一系列指令引导。每个指令都是一个脉冲序列,由单个运动神经元发出的精确定时脉冲组成。我们可以在你的皮肤表面放置电极来监听。我们记录到的信号,即肌电图(EMG),是所有这些对话同时进行的叠加——一片嘈杂。肌电信号分解的巨大挑战就是解决这个逆问题:将来自表面的混合信号解开,还原成其下的各个运动单元的独立脉冲序列。这好比在音乐厅周围放置麦克风,然后用一个巧妙的算法来分离出第一小提琴、第二小提琴和大提琴同时演奏的声音。通过应用从概率性贝叶斯推断到独立分量分析等原理,我们能够实现这一非凡的壮举,将肌肉的嗡嗡声转化为神经系统意图的直接读出。这不仅适用于假肢;它还为诊断神经肌肉疾病和理解我们如何控制运动的本质打开了大门。
深入大脑,我们遇到一个更复杂的交响乐团。我们可以记录一个神经元的脉冲和其邻居的电信号总和“嗡嗡声”,即局部场电位(LFP)。一个自然的问题出现了:这个神经元的放电是否影响了它的邻居,还是仅仅是随大流一起放电?这是一个关于因果关系的问题,一个出了名的棘手概念。但脉冲推断的工具为我们提供了处理它的方法。使用一个称为格兰杰因果关系的框架,我们可以提出一个非常精确的问题:“知道我们神经元过去的脉冲时间,是否有助于我们更好地预测 LFP 的未来,优于仅仅知道 LFP 自身的过去?”如果答案是肯定的,我们就可以说该神经元的脉冲增加了独特的预测信息,暗示了存在因果联系。通过模拟这些神经动力学并进行统计检验,我们可以开始绘制信息在神经回路中的流程图,将大脑的静态图像转变为一幅动态的影响与交流地图。
当然,最终目标不仅仅是倾听,而是要理解语言——学习其语法。现代机器学习,特别是像 Transformer 这样强大的架构,使我们能够做到这一点。通过向 Transformer 模型输入无数多神经元脉冲记录的例子,我们可以训练它学习神经编码的统计规则。这样一个模型便可以根据其最近的过去来预测一个神经元网络接下来会做什么。我们甚至可以设计这些模型使其具有可解释性。想象一个实验,一个神经元必须对视觉刺激做出反应。它的放电将取决于两件事:刺激本身,以及它自身的内部状态(例如,它在一次脉冲后不能立即再次放电,这种现象称为不应期)。通过设计一个带有不同“注意力头”(专门化的处理流)的 Transformer,我们可以构建一个模型,其中一个头学会专注于刺激信息,而另一个头专注于脉冲历史。然后模型学会混合这两股信息流以做出最终预测,为我们提供一个优美的、机械论的假说,解释真实的生物神经元可能是如何权衡这些相同因素的。在非常真实的意义上,我们正在为大脑的语言构建一本“语法书”。
尽管大脑充满了神秘,但它执行计算壮举——比如在人群中识别人脸——所用的功率大约相当于一个昏暗的灯泡。而我们制造的计算机,尽管速度飞快,却要多用几个数量级的能量。这种惊人的效率差距激发了一场计算机架构的革命:神经形态工程,即构建受大脑设计启发的计算机。
这场革命的核心是一个简单而深刻的思想。在传统计算机中,处理器和内存是物理上分离的。每当处理器需要一块数据时,都必须从内存中获取,这是一段跨越几毫米甚至几厘米硅片的旅程。虽然这听起来不远,但在芯片的尺度上,这是一场马拉松。逐比特移动数据的能量成本,完全主导了实际用它进行计算的成本。另一方面,大脑是内存与计算共置的终极大师。突触,这种生物记忆元件,与进行计算的神经元物理上交织在一起。简单的计算表明,将突触权重从一个 40 毫米外的集中式内存中移动,所消耗的能量可以比从不到一毫米外的本地内存中访问它们多出近 100 倍。这种“存内计算”的原则是神经形态设计的基石,是生物学教给我们的关于如何为效率而构建的直接一课。
当你设计一个神经形态芯片时,你交易的货币是脉冲。每个脉冲都有一定的能量成本,主要用于获取处理它所需的信息。你的芯片性能由其吞吐量(每秒能处理多少脉冲事件?)和其延迟(得到答案需要多长时间?)来衡量。工程师必须在一个复杂的权衡网络中导航。如果我们想要更高的准确性,我们应该使用更多的神经元,还是让它们放电得更快?我们应该使用“速率编码”(信息在于脉冲的平均数量),还是“时间编码”(单个脉冲的精确定时很重要)?每个选择都对能量和准确性有影响。利用费雪信息的数学工具,我们可以将这些权衡置于坚实的理论基础上,计算在不同编码方案下,给定能量预算所能达到的最佳准确性。
这引出了最终的挑战:软硬件协同设计。一个神经形态系统不仅仅是一块硬件;它是算法与运行它的硅片之间的共舞。想象一下,你被给予了一个准确性目标、一个最大功率预算和一个严格的延迟期限。你的任务是选择要模拟的神经元数量、它们的平均放电率,甚至是数值精度(每个数字使用多少位),以在满足所有约束的同时最小化每次推断所用的总能量。这是一个复杂的、受约束的优化问题,但工程师们每天都在解决它,以创造下一代超低功耗智能设备。从单个突触操作的能量成本到利用内存复用的数据流模式,每一个设计选择都塑造着最终的性能。
旅程并未止于构建类脑计算机。脉冲推断和基于事件的处理原则具有一种普遍性,其应用远远超出了神经科学。
考虑一下构建一个脑机接口(BCI)来帮助瘫痪者交流的挑战。我们可以记录大脑活动——例如,使用放置在大脑表面的皮层脑电图(ECoG)网格。然后我们可以使用一个熟悉的工具,卷积神经网络(CNN),在这些信号的频谱图中寻找有意义的模式。但是我们如何将这些信息传递给一个能够解释它的高效、低功耗设备呢?我们可以使用脉冲编码。由 CNN 提取的特征被翻译成脉冲序列,然后被送入一个高效的脉冲神经网络(SNN)进行最终的解码步骤。这种混合系统结合了传统深度学习在特征提取方面的强大功能和神经形态处理在决策方面的高效率,为连接脑信号的连续世界和基于脉冲的计算的离散世界提供了一座实用的桥梁。
但是,让我们再迈出令人惊讶的一步。一个神经元和一块锂离子电池有什么共同之处?表面上看,不多。但两者都是复杂的动态系统,其状态会随时间响应输入而演变。我们可以使用循环神经网络(RNN)构建一个电池的代理模型,该网络学习根据流入或流出电流的历史来预测电池的电压。现在,假设我们想了解电池对一个短暂的电流“脉冲”有多敏感。我们可以应用我们用来研究神经回路的完全相同的因果推断技术。通过运行反事实模拟——一个有电流脉冲,一个没有,两者都从完全相同的内部状态开始——我们可以精确地分离出该脉冲对未来电压的因果效应。数学是相同的。“脉冲”是不同的,但探究的方法,思考的方式,是通用的。
从窃听单个肌纤维到设计整个计算机芯片的架构,从解读大脑的低语到预测电池的行为,脉冲推断的原理提供了一个强大而统一的视角。它证明了一个奇妙的事实:通过试图理解宇宙一角的一个深刻真理——神经系统的语言——我们偶然发现了帮助我们理解和构建更多事物的思想和工具。