
要理解大脑,我们不能仅仅将神经元视为简单的开关。一个真实的神经元拥有记忆,其近期的活动会深刻影响其当前状态。这种内在动态是神经计算的基础,但也为建模带来了重大挑战。我们如何创建一个数学描述,既能解释神经元自身的历史,又能捕捉到诸如发放后不应期或活动依赖性疲劳等现象?本文将通过介绍现代计算神经科学的一块基石——发放历史滤波器——来填补这一空白。
本文将引导您了解这一强大概念的理论与应用。首先,在“原理与机制”部分,我们将探讨发放历史滤波器如何整合到广义线性模型 (GLM) 框架中。您将学习到它如何以数学方式表示神经元的“自传”,从而塑造其每时每刻的发放倾向。接下来,在“应用与跨学科联系”部分,我们将看到该滤波器的实际应用。我们将考察它如何帮助我们解码用于神经义肢的大脑信号,推断神经回路中的连接,甚至揭示其与人工智能领域惊人的联系。
要真正领会神经系统错综复杂的舞蹈,我们必须超越将神经元视为简单数字开关的漫画式描绘,即当输入越过某条固定线时就开启。一个真实的神经元远比这更优雅和复杂。它有记忆。它的近期历史塑造着它的现在,而它当下的行为又为未来投下影子。本章旨在探讨让我们能够理解和建模这种记忆的原理,重点关注计算神经科学最强大的工具之一:发放历史滤波器。
想象一下,你正试图预测一个神经元何时会发放。你肯定想知道它从外界接收到的信号。但这足够吗?如果这个神经元刚刚发放过,它很可能处于恢复状态,再多的刺激也无法使其立即再次发放。这个短暂的“请勿打扰”时期被称为不应期。在更长的时间尺度上,一个持续快速发放的神经元可能会变得“疲劳”,其兴奋性会慢慢降低。这被称为发放频率适应。一个仅基于外部输入的简单模型会完全忽略这些关键的内部动态。
为了捕捉这一点,我们需要一种尊重神经元历史的语言。我们需要定义神经元在任何给定时刻的“发放倾向”。在数学语言中,这被称为条件强度,用希腊字母 lambda, 表示。它代表在给定截至该时刻的所有信息——包括外部刺激和神经元自身过去发放的全部历史 ——的情况下,在时间 发生一次发放的瞬时概率。
这个强度不是一个静态的数字;它是一个动态的、波动的兴奋性景观,随着信息的不断流动而起伏。挑战与美感在于,找到一个简单而强大的规则来描述这个景观是如何被塑造的。
大自然常常用惊人简单的规则来产生巨大的复杂性。广义线性模型 (GLM) 为构建神经元的条件强度提供了一个极其有效和优雅的“配方”。它提出,虽然强度 本身具有复杂的乘法行为,但它的对数却只是各个独立贡献的简单加和。
为什么要取对数?这是一个优美的数学直觉。强度,如同概率,永远不能为负。通过对数——它可以是任何正数或负数——进行建模,然后取其指数来恢复强度,我们巧妙地保证了我们的模型总是符合物理现实的。
这个方程是我们的核心配方。让我们看看其中的成分:
这种加性结构意义深远。它使我们能够在数学上将外部世界的影响(突触驱动)与神经元自身的内在动态分离开来,而后者全都被打包进了发放历史滤波器中。
让我们聚焦于历史项 。卷积的符号虽然简洁,但可能掩盖了一个极其简单的思想。如果我们将发放序列 表示为在每个发放时间 的一系列无穷尖锐的事件(狄拉克δ函数),卷积就简化为一个和:
这个方程讲述了一个精彩的故事。每当神经元在时间 发放一次,它就会引发一个随时间展开的自我影响的“小波”。这个波的形状由函数 ,即发放历史滤波器描述,其中 是自那次发放以来经过的时间。在当前时刻 对神经元兴奋性的总影响,就是其过去每一次发放所产生的所有这些 lingering waves 的总和。在某种意义上,滤波器 是用神经元自身兴奋性语言写成的自传。
这个自传式滤波器的形状决定了神经元的特性:
不应期: 为了捕捉短暂的“请勿打扰”时期,滤波器 在 的小值处必须是强负的。这个负值被加到我们 GLM 配方的指数中。由于 ,这个负贡献变成一个小于一的乘法因子,从而有效地抑制了神经元在一次发放后立即的发放率。
适应性与簇发放: 不应期过后会发生什么? 中一个长而浅的负向尾部可以模拟发放频率适应中较慢的“疲劳”。相反,如果滤波器在一段时间内变为正值,它就代表一种“反弹”效应,使神经元在短暂延迟后更有可能再次发放。这种自兴奋促进了快速连续发放的尖峰簇的产生,这种行为被称为簇发放。
我们可以通过一个具体的例子清楚地看到这一点。一个合理的滤波器可能结合了快速的不应期成分和较慢的适应性成分:
在这里,大的 和小的 产生了一个尖锐、深邃的不应期,而较小的 和较大的 则产生了一个持久而浅的适应。这对神经元发放率 相对于其稳态速率 的影响是该滤波器形状直接而优美的结果:
这个方程完美地诠释了我们的原理:滤波器的形式直接转化为对神经元发放倾向的动态调制。
还有另一种同样强大的方式来思考发放历史滤波器。我们可以不把它看作是调节发放率,而是看作是调节发放阈值。
要让一个神经元发放,它的刺激驱动输入必须“足够强”。但“足够强”是多强呢?发放历史滤波器告诉我们,这是一个移动的目标。我们可以重新排列我们的 GLM 方程来看这一点。为了让神经元达到某个目标发放率 ,刺激驱动必须超过某个值:
右边的项是一个动态阈值。项 直接受过去发放的控制。当一次发放发生且 变为负值时,项 变为正值,从而提高了阈值。现在刺激必须更努力才能使神经元再次发放。本质上,历史滤波器就是根据神经元自己近期的表现,不断地为刺激改变标准。
GLM 框架的优雅之处不止于单个神经元。它可以无缝地扩展到描述整个网络。神经元 的发放率配方只是增加了几个成分:所有与之相连的其他神经元的发放历史。
这里, 是神经元自身的历史滤波器,和之前一样。新的项,即耦合滤波器 ,描述了神经元 的一次发放在多大程度上影响了神经元 的兴奋性。一个正的 代表一个兴奋性连接,而一个负的 则代表一个抑制性连接。滤波器的形状告诉我们关于突触延迟和相互作用的时间进程。在一个优美的框架内,我们现在既可以描述神经元的内在属性,也可以描述它在复杂网络中的“社交”生活。
一个模型的好坏取决于我们测试它的能力。我们如何能确定这些历史效应是真实的,而不仅仅是模型的产物,或许是与其他现象混淆了?这时,科学的真正精神——巧妙、细致和严谨的测试——就派上用场了。
考虑一下区分快速的、由发放触发的不应期和缓慢的、由刺激驱动的适应性所面临的挑战。两者都可能导致神经元在高活动期间发放减少。我们如何区分它们?一个优美的科学逻辑给出了答案。想象一下,我们使用完全相同的“冻结”刺激,在许多重复的试次中记录了一个神经元的反应。
根据定义,发放历史效应与单个试次内发放的精确时间相关。另一方面,缓慢的适应性是由整体刺激特性驱动的,而这些特性在所有试次中都是相同的。我们可以利用这种差异进行试次重排控制。我们拟合我们的 GLM,包括历史滤波器。然后,为了测试该滤波器的重要性,我们计算它的贡献时,不是用给定试次中神经元实际的发放序列,而是用另一个试次的发放序列。
如果历史滤波器捕捉的是一个真实的、与发放时间精确相关的不应期,这种重排会破坏模型。模型的预测能力将大幅下降,因为一次发放与其后兴奋性抑制之间的精确因果联系已被切断。然而,如果神经元的行为主要由对刺激的缓慢适应性主导,那么重排的影响会小得多,因为来自不同试次的发放序列由于共享的刺激而仍然大致相关。这个简单而优雅的测试使我们能够区分两个看似相似的现象,并建立信心,相信我们的发放历史滤波器所学到的是神经元内在的、毫秒级记忆的真实反映。这是一个有力的提醒:在科学中,最深刻的真理往往不仅由卓越的理论揭示,也由同样卓越的问题揭示。
在我们迄今为止的探索中,我们已经将神经元描绘成一个复杂的计算设备。我们超越了细胞仅在刺激超过某个阈值时才发放的简单观念。现在,我们拥有一个数学框架——广义线性模型 (GLM)——它将神经元的发放概率描述为一个动态量,根据传入的刺激而不断变化。但这个拼图仍有一个关键部分缺失。如果我们只考虑外部刺激,我们的模型神经元就像一个简单的反射机器,从一刻到下一刻都忘记了自己的行为。
然而,真实的神经元是有记忆的。它们的现在深受其近期的过去影响。这种“个性”或内在动态,正是神经计算丰富性的开端,也正是发放历史滤波器成为我们不可或缺工具的地方。
要理解为什么我们需要一个历史滤波器,让我们来思考一下真实神经元在哪些方面偏离了一个简单的“无记忆”过程。一个真正无记忆的发放过程,即泊松过程,其发放是随机的,任何一次发放的时间都对下一次没有影响。如果你在一组时间窗口内统计发放次数,你的计数的方差将等于平均计数——这一统计特性被称为法诺因子为一。但当我们观察真实神经元时,很少看到这种情况。
首先,当一个神经元发放一个动作电位后,会有一个短暂的时刻,即不应期,在此期间它很难或不可能再次发放。想象一下老式相机的闪光灯;闪光后,它需要片刻充电才能再次闪光。这一简单事实给发放序列施加了一种基本的规律性。它消除了极短的发放间期 (ISI),并使神经元的输出比纯粹的随机过程更有序。这种增加的规律性降低了发放计数的变异性,导致法诺因子小于一(),这种状态我们称之为“亚泊松”。这种“充电时间”的存在本身就是一种记忆形式:神经元“记得”它刚刚发放过,必须等待。
另一方面,一些神经元表现出簇发放或易化动力学。在这种情况下,发放一个尖峰会使神经元更有可能在很短时间内再次发放。这导致了尖峰簇的出现,簇之间被较长的静默期隔开。与具有相同平均速率的随机过程相比,这种聚类极大地增加了发放计数的变异性——一些时间窗口会包含一整个簇,而另一些则是空的。这导致法诺因子大于一(),这是“超泊松”或过离散活动的标志。其他神经元则表现出适应性,即在一段高活动期后,它们会变得“疲劳”,发放率降低,这是另一种跨越更长时间尺度的记忆形式。
这些内在行为——不应期、簇发放、适应性——对于神经元如何处理信息至关重要。一个忽略它们的模型就错过了主旨。这正是发放历史滤波器所解决的问题。
我们添加到 GLM 指数函数输入中的发放历史滤波器,是一个极其简单的想法。它让时间 的发放概率受到在时间 发生的尖峰的影响。通过在将滤波器拟合到真实神经元数据后检查其形状,我们简直可以读出神经元的内在个性。
滤波器的形状告诉我们什么?
这不仅仅是曲线拟合。我们可以设计这些滤波器,使其参数直接对应于生物学概念,例如适应的“强度”和“时间尺度”,从而使我们能仅从神经元的活动中量化其动态特性。发放历史滤波器为我们提供了一种描述神经元内在生活的语言。
当然,神经元并非孤立存在;它们是庞大、互连回路的一部分。当我们意识到,用于捕捉神经元“独白”的同一工具也可以用来解读其“对话”时,我们建模框架的真正威力就显现出来了。
在神经回路模型中,我们不仅可以为每个神经元()包含一个自身历史滤波器来捕捉其内在动态,还可以包含耦合滤波器()来捕捉网络中其他每个神经元的影响。从神经元 到神经元 的耦合滤波器告诉我们,神经元 的一次发放在稍后的某个时间如何改变神经元 的发放概率。滤波器 在几毫秒的延迟处出现一个尖锐的正峰,可能暗示着从 到 的直接兴奋性突触连接。一个负向、更宽的波谷则可能暗示着一个抑制性连接。
这比简单地观察相关性是一个深刻的飞跃。如果我们只计算两个神经元发放序列的互相关图,一个峰值告诉我们它们倾向于一起发放,但它不告诉我们为什么。是神经元 A 驱动神经元 B 吗?是 B 驱动 A 吗?还是一个未被观察到的第三个神经元 C 同时驱动它们?带有耦合滤波器的 GLM 有助于解开这个结。因为该模型考虑了每个神经元的内在倾向(通过自身历史滤波器)及其对刺激的反应,耦合滤波器为我们提供了一个直接功能性影响的估计,清除了许多这些混淆因素 [@problem-id:4151102]。我们从观察单纯的相关性,转向了对潜在因果路径的建模。
这种对神经发放的详细、动态建模不仅仅是一项学术活动。它具有变革性的应用,尤其是在神经义肢和脑机接口 (BCI) 领域。BCI 的核心挑战是从运动皮层神经元的原始电活动中“解码”用户的意图——比如,移动假臂的愿望。
早期的解码器通常通过简单地计算一个小时间窗口内的发放次数来工作,假设更高的计数意味着更强的意图。这是一种粗糙的方法,丢弃了包含在尖峰精确时间中的大量信息。我们从关于不应期和簇发放的讨论中知道,发放序列具有复杂的时序结构。一个理解这种结构的解码器可以远比这精确得多。
这正是 GLM,连同其刺激和历史滤波器,作为解码工具真正大放异彩的地方。通过对条件强度 进行建模,解码器可以计算在假定的运动意图下,整个发放序列的可能性。一个有效的解码器会寻找使观察到的尖峰序列最有可能发生的意图。这个似然计算有两部分:一部分奖励模型在尖峰确实发生的精确时刻放置高发放概率,另一部分惩罚模型在它们没有发生的地方放置概率。发放历史滤波器对此至关重要,因为它允许模型预测不应期期间的平静和簇发放期间的爆发,从而显著提高解码器的准确性。从本质上讲,通过倾听神经元的“个性”,我们可以更好地理解它想说什么。
利用系统自身的过去活动来预测其未来的想法并非神经科学所独有。它是建模动力学系统的一个基本原则,在科学和工程领域随处可见。最令人兴奋的跨学科联系之一是与人工智能领域,特别是循环神经网络 (RNN) 的联系。
RNN 是一种用于处理序列数据(如文本或语音)的人工智能模型。其关键特征是作为记忆的“隐藏状态”,将有关先前输入的信息向前传递。乍一看,这似乎与我们的 GLM 大相径庭。然而,可以证明某类线性 RNN 在数学上等价于我们一直在讨论的 GLM。通过递归地展开 RNN 的隐藏状态,我们发现它实际上是在计算所有过去输入的指数加权和——它已经学会了一个隐式的历史滤波器!GLM 将这个滤波器作为一个明确、可解释的组件,而 RNN 则将其作为其内部机制的一部分来学习。这一发现揭示了一种优美的统一性:建模时间动态的挑战在生物智能研究和人工智能创造中都导向了趋同的解决方案。
有了这样一个强大而优雅的模型,总有自欺欺人的危险。我们如何知道我们的 GLM,及其精心制作的滤波器,是否真的是对神经元行为的一个良好描述?科学家为此开发了巧妙的方法,称为拟合优度检验。
其中最优雅的一种方法是基于“时间重缩放定理”。其思想如下:我们拟合的模型为我们提供了每个时刻的预测瞬时发放率 。想象我们构建一个“模型时钟”,其速度由这个预测速率控制。当模型预测高发放率时,时钟走得快;当速率低时,时钟走得慢。现在,让我们看看真实神经元的尖峰在这个扭曲的时间尺度上何时发生。如果我们的模型是完美的——如果它捕捉了发放序列的所有时间结构——那么在这个新的时间尺度上,尖峰应该表现为完全随机的,就像一个教科书式的齐次泊松过程。我们已经将一个复杂、有结构的信号,通过“除以”我们的模型,得到了纯粹的、无结构的噪声。然后我们可以使用标准的统计检验来检查这些“重缩放”的尖峰时间是否确实是随机的。如果是,我们就可以确信我们的模型很好地解释了神经元的复杂动态。正是这种对自我批判的承诺,将优雅的建模从一门数学艺术转变为一门严谨的科学。