try ai
科普
编辑
分享
反馈
  • 理论神经科学

理论神经科学

SciencePedia玻尔百科
核心要点
  • 理论神经科学使用 Marr 的三个分析层次(计算层次、算法层次、实现层次)作为基础框架来解构复杂的大脑功能。
  • 贝叶斯大脑假说认为,大脑通过结合先验信念和感觉数据,在不确定的世界中进行最优推断。
  • 神经网络的动力学,以吸引子和临界性等概念为特征,解释了记忆、稳定性和高效信息处理等涌现特性。
  • 来自工程学和统计学的原理,如最优控制和贝叶斯推断,为理解知觉、行动和认知提供了一种统一的数学语言。

引言

人类大脑可以说是已知宇宙中最复杂的系统,一个由数百亿神经元组成的网络,产生了知觉、行动、思想和意识。理解这种生物硬件如何产生如此复杂的行为是科学界最巨大的挑战之一。理论神经科学通过应用数学、物理学和计算机科学的严谨工具来揭示神经计算的基本原理,从而应对这一挑战。它力求超越对大脑组件的简单描述,更深入地理解支配其功能的逻辑和动力学。本文旨在弥合物性大脑与其涌现的认知能力之间的知识鸿沟。

为引导我们的探索,本文分为两个主要部分。在第一章“原理与机制”中,我们将深入探讨构成该领域基石的基础思想。我们将探讨 David Marr 富有影响力的分析层次、前馈和循环网络的设计架构、通过吸引子看待记忆的动力系统观点,以及贝叶斯大脑这一强大的统一框架。随后,“应用与跨学科联系”一章将展示这些理论在实践中的非凡力量。我们将看到它们如何为从感觉知觉和运动控制的精妙之处到意识的宏大挑战以及下一代人工智能的设计等广泛现象提供优雅的解释。

原理与机制

理解大脑就是踏上一段跨越巨大复杂性尺度的旅程,从单个突触的分子之舞到产生思想的数十亿神经元的协同交响。这项任务似乎令人望而生畏。我们该从何处着手呢?幸运的是,伟大的计算机科学家 David Marr 为我们这次旅程提供了一个指南针。他提出,要理解任何复杂的信息处理系统,我们必须在三个不同但互补的分析层次上进行研究。这个框架不仅是一个有用的组织工具,更是理论神经科学看待大脑的透镜。

首先是​​计算层次​​:系统试图解决什么问题,以及为什么?根本目标是什么?其次是​​算法层次​​:系统如何解决这个问题?它使用的配方、步骤序列或信息表示是什么?最后是​​实现层次​​:这个算法是如何在物理上实现的?执行这个配方的具体部件——神经元、突触和分子——是什么?让我们通过一个实例来看看。

视觉的逻辑:一个视觉案例研究

思考一项对我们体验至关重要、以至于我们不假思索就能完成的任务:看到物体的边缘。

在​​计算层次​​,目标很明确:识别视野中亮度、颜色或纹理发生突变的地方。为什么?因为这些不连续性并非随机;它们是物理世界中物体边界的可靠标志。找到边缘是将世界划分为不同“事物”的第一步。

在​​算法层次​​,我们如何构建一台机器来找到这些变化?亮度的急剧变化对应于亮度变化率达到最大的地方。如果你学过一点微积分,你就会知道一个函数变化率(其一阶导数)的最大值出现在其二阶导数为零的地方。因此,一个可行的算法是:获取图像,计算其各处的二阶导数,并标记导数穿过零的点。

然而,这里有一个问题。真实世界以及我们眼睛传来的信号都是有噪声的。直接求二阶导数将是一场灾难;它会放大所有高频噪声,留下一堆虚假的“边缘”。解决方法是先平滑图像,通过模糊来抑制噪声,同时又不抹去重要特征。高斯函数,即我们熟悉的“钟形曲线”,是完成此项任务的完美工具。因此,完整的算法是:首先用一个高斯核(GσG_{\sigma}Gσ​)对图像进行卷积,然后再取拉普拉斯算子(∇2\nabla^2∇2,一个二维二阶导数)。这个 ∇2(Gσ∗I)\nabla^2(G_{\sigma} \ast I)∇2(Gσ​∗I) 操作的零交叉点为我们提供了一张稳健的边缘图。

这就带我们来到了​​实现层次​​。自然界是否也偶然发现了同样的解决方案?令人惊讶的是,是的。我们视觉系统早期阶段的神经元,比如视网膜神经节细胞,其感受野具有“中央-周边”结构。一个神经元可能被其感受野正中心的光兴奋,但被其周围区域的光抑制。这种结构可以完美地用高斯差分(Difference of Gaussians, DoG)模型来描述,而这正是我们从第一性原理推导出的高斯拉普拉斯算子(∇2Gσ\nabla^2 G_{\sigma}∇2Gσ​)的一个非常近似的表达!看起来,大脑是一位数学大师。

思维的架构:前馈与循环设计

边缘检测器是一个自成一体的模块的绝佳例子。但大脑真正的力量来自于将数十亿这样的神经元连接成巨大而复杂的网络。这些连接的模式并非随机;它们遵循着与其执行功能密切相关的特定架构原则。两种最基本的模式是前馈网络和循环网络。

​​前馈网络​​就像一条流水线。信息从一端输入,经过一系列阶段或“层”的处理,然后从另一端输出。没有环路;信息流是严格单向的。这种架构非常适合处理静态的、输入到输出的映射任务,比如识别照片中的物体。输入是图像,输出是标签“猫”,网络则执行这种转换。这样的系统本质上是​​无记忆的​​;它在任何时刻的输出仅取决于同一时刻的输入。网络的深度使其能够学习极其复杂的转换,但它没有内在的记忆过去的能力。

为了处理时间,大脑需要一种不同的设计。​​循环网络​​包含环路,允许信号反馈并在网络内部循环。这个简单的补充带来了变革性的影响。网络在任何时刻的状态现在不仅取决于当前的输入,还取决于其自身的先前状态。这种循环活动创造了一种记忆形式,一种内部语境。这些网络本质上是​​有状态的​​,对于处理任何随时间展开的信息都至关重要,例如理解一个句子、规划一系列动作,或者记住一个电话号码直到拨打出去。

心智的稳定性:吸引子与分岔

循环网络是如何“记忆”的?记忆并非存储在某个特定位置,就像硬盘上的文件一样。它是网络集体动力学的一种涌现特性。我们可以通过简化我们的图像来获得一个强大的直觉。我们可以用一个单一变量,即其​​发放率​​ r(t)r(t)r(t),来描述一个大神经元群体的平均活动,而不是跟踪每一个脉冲。这个发放率随时间的演变通常可以用一个简单的微分方程来描述:

τdrdt=−r+ϕ(wr+I)\tau \frac{dr}{dt} = -r + \phi(w r + I)τdtdr​=−r+ϕ(wr+I)

这里,τ\tauτ 是一个时间常数,www 是群体内循环连接的强度,III 是外部输入,而 ϕ(⋅)\phi(\cdot)ϕ(⋅) 是一个非线性函数(如 sigmoid 或 tanh),用于防止发放率无限增大。

这个方程的特殊之处在于它的​​不动点​​。不动点是一个状态 r∗r^*r∗,在该状态下变化率为零(r˙=0\dot{r} = 0r˙=0),意味着活动处于完全平衡和自我维持的状态。我们可以把系统的状态想象成一个在地形上滚动的球。一个稳定的不动点就像一个山谷的底部。如果你稍微推动一下球,它会滚回谷底。这就是一个​​吸引子​​。

这是一个深刻思想的基础:将记忆视为吸引子。一个短暂的输入可以将网络的状态推入一个特定的吸引盆地。即使在输入消失后,网络自身的循环动力学也会将其保持在那里。这种持续的活动模式就是记忆。所有导致同一山谷的起始点的集合是其“吸引盆”,这赋予了记忆对抗噪声的稳健性。

当然,并非所有不动点都是稳定的山谷;有些像山顶,任何微小的扰动都会导致球滚走。为了确定不动点的稳定性,我们可以给系统一个数学上的“戳刺”。我们在不动点周围对动力学进行线性化,并找到控制微小扰动如何增长或衰减的特征值 λ\lambdaλ。一个负的 λ\lambdaλ(在这个连续时间模型中)意味着山谷是稳定的;一个正的 λ\lambdaλ 意味着它是一个不稳定的山顶。对于多维网络,这可以推广为检查一个特殊矩阵——​​雅可比矩阵​​——的​​所有特征值的实部是否都为负​​。

更奇妙的是,当我们缓慢改变网络的输入(在抽象形式 x˙=f(x,μ)\dot{x} = f(x, \mu)x˙=f(x,μ) 中的参数 μ\muμ)时,这整个地形的形状都可能改变。在输入的某个临界值,一个山谷和一个山顶可能会凭空出现!这个事件被称为​​鞍节点分岔​​,它代表着一个新记忆、一个网络新稳定状态的诞生。这是一个普适的机制,通过它,系统可以响应于条件中一个微小、平滑的变化而发生剧烈的、质的转变。

悬于边缘:归一化与临界性

由于存在如此多的循环兴奋,神经网络的生活充满了危险,随时处于失控活动的边缘。为了正常工作,它们必须在局部和全局尺度上采用复杂的调节机制。

大脑中最普遍的计算基序之一是​​除法归一化​​。神经元的反应并非孤立地由其输入决定;相反,其原始反应会被一个包含其附近神经元群体总活动度的项相除。这个简单的操作带来了深远的影响。它实现了一种自动增益控制,确保神经元的反应不会饱和,并在广泛的输入强度范围内保持敏感。它使神经编码变得相对,强调对比度和变化,而非绝对水平。这个原理是如此基础,以至于它可以解释感觉系统中大量的非线性反应特性,并且可以证明除法归一化方程的数学形式与几十年来用于描述感觉反应的经典 Naka-Rushton 函数是等价的。

在全局尺度上,大脑似乎进行着一种更加壮观的平衡表演。想象一下活动像级联或雪崩一样在网络中传播。一个神经元发放脉冲,导致其几个邻居也发放脉冲,后者又导致其他神经元发放脉冲。由单个脉冲触发的后续脉冲的平均数量称为​​分支比​​,η\etaη。

  • 如果 η<1\eta \lt 1η<1(​​亚临界​​状态),任何活动级联都会迅速消亡。信息无法在整个大脑中有效传播。
  • 如果 η>1\eta \gt 1η>1(​​超临界​​状态),级联将呈指数级增长,导致失控的、类似癫痫的活动。
  • 但如果 η=1\eta = 1η=1(​​临界​​状态),系统就处于完美平衡。级联可以无限期地持续下去,既不会消亡也不会爆发。活动以各种形状和大小的“雪崩”形式传播。

值得注意的是,这些临界雪崩遵循一种特定的统计模式:其大小分布是一个​​幂律​​,通常指数为-3/2。这与物理学中许多其他临界系统(从沙堆到磁铁)所遵循的定律相同。而关键在于:从活体皮层组织中进行的实验记录揭示了遵循这一定律的神经雪崩!。这引出了​​临界性假说​​:大脑会主动将自身调整到这个临界点,在有序与混沌之间摇摆,以最大化其传输、存储和处理信息的能力。

作为贝叶斯推断引擎的大脑

我们已经看到大脑如何被构造来执行计算、维持记忆和调节其自身动力学。但是这些回路是如何准确地表征世界的呢?它们是如何从经验中学习的?一个强大而统一的答案来自​​贝叶斯大脑假说​​。

其核心思想是,大脑的基本工作是处理不确定性。我们的感觉输入是嘈杂、不完整且模糊的。该假说认为,大脑通过实现一种贝叶斯统计推断来处理这种不确定性。它基于过去的经验,维持着对世界状态的​​先验信念​​ p(s)p(s)p(s)。当新的感觉数据(xxx)到达时,它利用这些证据(通过​​似然​​函数 p(x∣s)p(x|s)p(x∣s))来更新其信念,根据贝叶斯定理形成一个​​后验信念​​ p(s∣x)p(s|x)p(s∣x):p(s∣x)∝p(x∣s)p(s)p(s|x) \propto p(x|s)p(s)p(s∣x)∝p(x∣s)p(s)。这个后验信念代表了在给定先验知识和当前证据的情况下,对世界的最佳猜测。

这种观点要求我们将概率不视为可重复事件的长期频率,而是视为对一个单一、独特事态的​​置信度​​——这正是贝叶斯概率解释的基础定义。

这不仅仅是一个比喻;它是一个​​规范性理论​​。它描述了一个理性的代理人在不确定性下做出最优决策应该做什么。而且因为它做出了定量的预测,所以它是​​可证伪的​​。例如,在一个实验中,被试必须结合两个有噪声的视觉线索来估计一个位置,贝叶斯模型预测他们的最终估计应该是这些线索的加权平均值,其中每个权重与线索的可靠性(其方差的倒数)成正比。行为实验表明,人类正是这样做的!我们还可以寻找贝叶斯计算中关键变量的神经生理学关联,例如似然的精度,并测试当我们操纵感觉不确定性时,神经活动是否会以预测的方式发生变化。

也许这个故事最美妙的部分在于它如何与细胞层面联系起来。为了让大脑更新其内部模型,突触必须改变其强度。这需要一个学习信号。事实证明,突触强度的变化不仅仅基于其突触前和突触后伙伴的活动(“赫布”规则)。它需要一个​​第三个因素​​:由多巴胺、乙酰胆碱和去甲肾上腺素等神经调节物质广播的全局性调节信号。这些神经调节物质似乎携带的正是贝叶斯学习系统所需要的信号:

  • ​​多巴胺​​以其传递​​奖励预测误差​​信号而闻名:“这个结果比我预期的要好还是差?” 这是强化学习的核心教学信号,让大脑能够学习哪些行为能带来好的结果。
  • ​​去甲肾上腺素​​被认为传递​​意外不确定性​​或易变性信号:“我的世界模型是错的!规则已经改变了!” 这会触发高度警觉状态并提高学习率,从而实现对新环境的快速适应。
  • ​​乙酰胆碱​​可能传递​​预期不确定性​​信号:“规则是稳定的,但世界现在很嘈杂。” 这可以促进对感觉细节的更高关注,帮助从噪声中提取更清晰的信号。

在这一宏大的综合中,我们看到各个分析层次融为一体。一个高层次的学习计算理论(贝叶斯推断)通过特定的算法信号(预测误差、不确定性)实现,而这些信号又通过影响突触可塑性的分子神经调节的实现细节来完成。从单个神经元的逻辑到整个心智的概率推理,理论神经科学揭示了一个具有深远优雅、统一和力量的系统。

应用与跨学科联系

既然我们已经探讨了理论神经科学的一些基本原理和机制,我们就可以开始一场盛大的巡礼。我们将看到这些思想并非仅仅是抽象概念,而是强大的透镜,通过它们我们可以理解从最简单的感觉到最深邃的心智之谜等一系列令人惊叹的现象。就像物理学家将力学定律应用于从苹果下落到月球轨道一样,我们将把计算、动力学和推断的原理应用于我们头颅内的宇宙。一个好理论的美妙之处在于其统一的力量,在于揭示千差万别事实背后共同逻辑的力量。让我们开始我们的探索吧。

解码感觉:知觉的逻辑

我们对大脑功能的探索之旅始于外部世界与我们初次接触的地方:我们的感觉。视觉,我们最主要的感觉,为描绘神经计算的原理提供了一块完美的画布。当你看着一个物体时,你的大脑不是一台被动记录像素的相机。它是一个主动的解释者,立即开始解构和重构的过程以提取意义。

考虑一个最初的计算难题:在变化的背景中看到一个物体。一只黑猫在明亮阳光下的白墙上是可见的,在黄昏昏暗光线下同样可见。从猫身上到达你眼睛的光的绝对量差别巨大,但它仍然是一只“黑猫”。这是因为视觉系统对对比度极其敏感,而不是对绝对光照水平。但故事还要更微妙。一个光点的感知并非独立于其周围环境。一个灰色光点在深色背景下看起来比在浅色背景下更亮。大脑是如何做到这一点的?早期的理论提出了一种简单的减法:神经元感受野中心的反应被其周边的反应所减弱。但这个模型未能捕捉到在不同对比度水平下知觉的稳健性。

一个更强大且现已被广泛接受的理论原理是​​除法归一化​​。在这里,神经元对其偏好刺激的反应被一个大的相邻神经元群体的汇集活动所除。这是一种自动增益控制。当背景“繁忙”(高对比度)时,增益被调低,使神经元变得不那么敏感。这使得系统能够根据当前情境调整其工作范围,从而解释了大量的知觉现象。理论建模使我们能够精确地比较这些想法:我们可以构建减法抑制和除法抑制的数学模型,并观察哪一个能更好地预测不同条件下的神经反应。事实证明,除法归一化是一种“典范计算”,大脑似乎在各种情况下反复使用它,不仅在视觉中,还在听觉、触觉,甚至像注意力这样的高级认知功能中。

随着信息从视网膜流向大脑更深处,到达初级视皮层(V1),处理过程变得更加复杂。V1 中的神经元不再对简单的光点感兴趣;许多神经元选择性地对特定方向的边缘和条纹做出反应。这是从光影场景中构建物体世界的第一步。理论问题是:什么样的滤波器可以完成这一壮举?最成功的模型之一是​​Gabor 滤波器​​,一个简单而优雅的数学对象。它本质上是一个正弦波光栅乘以一个高斯窗口。这种结构赋予它两个关键属性:它在空间上是局部的(高斯窗口),在频率和方向上也是局部的(正弦波)。用傅里叶分析的语言来说,它的频谱由两个局部的波瓣组成,这意味着它对一个窄带的空间频率和方向是调谐的。这与测量的 V1 简单细胞的属性完美匹配,表明大脑已经发现了这种同时表示视觉世界中“什么”和“哪里”的最优解。

运动大师:运动控制中的工程学原理

大脑不是一个被动的观察者;它是一个主动的代理人。移动我们的身体带来了一个惊人的工程挑战。仅仅为了伸手去拿一杯水,你的大脑就必须协调数十块具有复杂属性的肌肉,引导你的手沿着精确的路径在空间中移动。然而,你却不假思索地做到了。当你观察某人移动时,你可以立即发现舞者流畅、优雅的动作与原始机器人僵硬、笨拙的动作之间的区别。这种优雅的源泉是什么?

最优控制理论,一个工程学分支,提供了一个惊人简单的答案。大脑的行为仿佛在解决一个优化问题。其中一个最具影响力的想法是​​最小急动度假说​​。急动度是加速度的变化率;高急动度的运动是生涩和摇晃的,而低急动度的运动是平滑的。该理论假设,对于一个简单的点对点运动,大脑会在无限多种可能的轨迹中选择那条使整个运动过程中的总平方急动度最小的轨迹。当你写下这个原理的数学公式时,其解是一个独特的、钟形的速度剖面,它与真实人类伸手运动的剖面惊人地相似。这个理论不仅描述了手臂做了什么;它还提供了一个规范性的理由,解释了为什么它要那样做。这是满足从静止开始到静止结束边界条件的最平滑的可能路径。

同样的最优控制原理不仅可以解释像伸手这样的离散动作,还可以解释像保持平衡这样的连续任务。直立站立就像平衡一个倒立摆,这是一个内在不稳定的系统,需要持续、精细的校正。在这里,大脑再次扮演了专家控制者的角色。我们可以用物理方程来模拟身体的动力学,并在​​线性二次调节器(LQR)​​的框架内,将大脑的目标表述为一个成本函数。这个成本函数既惩罚偏离直立姿势的偏差,也惩罚用于校正的“控制努力”(例如,踝关节扭矩)的量。该理论随后预测了以最小努力维持稳定性的最优反馈策略。从芭蕾舞演员跳跃的优雅到站立时微妙的摇摆,控制理论的语言为我们理解生物运动的优雅提供了一个统一的框架。

内在世界:认知与信念的模型

除了感知和行动,大脑还建立了一个世界的内部模型,一个由信念、期望和记忆构成的景观。理论神经科学在形式化这些“内在”过程方面取得了巨大进展。

一个主导范式是​​贝叶斯大脑假说​​,它提出大脑根本上是一个推断引擎。它通过结合传入的数据(“似然”)和其先验信念或期望(“先验”),不断地对其感觉输入的原因做出最佳猜测。这个过程,有时被称为​​通过合成进行分析​​(Analysis-by-Synthesis),可以用贝叶斯法则来形式化:p(cause∣data)∝p(data∣cause)p(cause)p(\text{cause} | \text{data}) \propto p(\text{data} | \text{cause}) p(\text{cause})p(cause∣data)∝p(data∣cause)p(cause)。支持这一观点最有力的证据之一来自知觉错觉。在这个框架中,错觉不是大脑的“错误”。当一个强烈的先验信念压倒了模糊或嘈杂的感觉数据时,它是一个最优的、合乎逻辑的结论。世界上物体的 MAP(最大后验)估计是感觉证据和先验期望的精度加权平均值。当感觉证据很弱(噪声高)或先验非常强时,我们的知觉会被拉向先验,产生一种我们体验为错觉的“偏见”。

这种平衡成本和收益的框架延伸到我们的决策和动机。为什么你有时会充满活力地从床上一跃而起,而有时却反复按下贪睡按钮?强化学习理论认为,我们总是在试图最大化未来的奖励。但行动也有成本。理论模型提出,神经调节物质​​多巴胺​​通过调节感知的努力成本,在设定我们行动的“活力”方面发挥着关键作用。较高的多巴胺水平可能会降低我们内部计算中的主观成本项,使得为了获得奖励而更快、更有力地行动变得“值得”。通过将其写成一个简单的目标函数 J(vigor)=Reward Rate−Cost(vigor)J(\text{vigor}) = \text{Reward Rate} - \text{Cost}(\text{vigor})J(vigor)=Reward Rate−Cost(vigor),我们可以正式地展示单个参数(代表多巴胺能基调)的变化如何将最优策略从慵懒转变为精力充沛。

我们的内在世界也由记忆塑造。我们知道记忆有不同的生命周期——有些在几分钟内消退,而另一些则持续一生。​​互补学习系统​​理论提出,这是因为我们有两个不同的记忆系统:一个用于情景记忆的快速学习海马系统和一个用于一般知识的慢速学习新皮层系统。记忆是如何从脆弱的海马储存过渡到稳健的皮层储存的?该理论假设了一个由重放驱动的巩固过程,其中海马体“教导”皮层,通常在睡眠期间进行。我们可以建立这个过程的动力系统模型,用方程来控制海马痕迹(SHS_HSH​)和皮层痕迹(SCS_CSC​)的强度。这个模型,一个简单的线性微分方程组,可以重现实验中观察到的经典遗忘曲线,展示了记忆痕迹如何最初衰减,但随着它从快速系统巩固到慢速系统而随时间增强。

宏大挑战:意识与疾病

这些理论工具能帮助我们探讨神经科学中最深刻、最困难的问题吗?

思考一下​​意识​​之谜。为什么我们能意识到大脑中的某些信息处理过程,而对其他的却浑然不觉?​​全局工作空间理论(GWT)​​提出,当信息在广泛的脑区网络中被“广播”,从而使其可用于灵活的认知处理时,意识就产生了。这个抽象的想法可以用网络科学的工具来具体化。如果我们将大脑的连接建模为一个图,那么全局广播的能力可以用图的​​全局效率​​来代表,这是一个衡量信息在任意两个节点之间传播难易程度的指标。然后我们可以进行虚拟实验。如果我们损伤网络会发生什么?该理论预测,对关键“枢纽”节点——那些具有高介数中心性、连接许多通信路径的节点——进行靶向攻击,对全局效率的破坏性将远大于随机损伤。这为连接网络结构与被认为是意识觉知所必需的属性提供了一个正式的、可检验的假设。

另一个主要理论,​​整合信息理论(IIT)​​,提出了一个直接的意识数学度量,称为 Φ\PhiΦ (Phi)。Φ\PhiΦ 旨在量化一个系统的因果结构在多大程度上既是整合的(它不能被分解为独立的部分)又是分化的(它有大量的可能状态)。尽管在哲学上很有吸引力,但对于任何有一定规模的系统来说,计算 Φ\PhiΦ 在计算上都是不可行的。这对实验验证构成了重大挑战。因此,理论神经科学家正在努力开发实用、可计算的 Φ\PhiΦ 替代指标,以便应用于像脑电图(EEG)这样的真实数据。这涉及到一个精巧的平衡:结合降维技术,拟合像多元自回归(MVAR)模型这样的因果模型,并使用巧妙的近似来捕捉整合和分化的本质,而无需承担不可能的计算成本。这项工作处于高层理论与数据分析混乱现实交汇的前沿。

理论模型的应用不仅限于学术好奇心;它具有深远的临床意义。例如,癫痫动力学模型将大脑视为一个复杂的动力系统,可以从健康状态转变为病理性的振荡(发作)状态。通过对所涉及的神经元群进行建模,我们可以研究导致癫痫发作的分岔。将此类模型用于诊断或治疗计划的一个关键步骤是​​参数可识别性​​。给定一段大脑活动记录,我们能否唯一地确定我们模型的底层参数?使用像​​费雪信息矩阵​​这样的工具,我们可以正式评估我们的数据是否足以确定这些参数,这是构建不仅合理,而且可靠和具有临床实用性模型的关键一步。

构建大脑:神经科学作为人工智能和工程学的灵感缪斯

神经科学与工程学之间的关系是双向的。不仅工程学原理可以阐明大脑功能,大脑功能现在也成为下一代人工智能和计算机硬件的主要灵感来源。

一个引人注目的例子是​​水库计算​​。几十年来,训练循环神经网络(RNN)一直是一门困难的艺术。水库计算提出了一种激进的简化方案:如果网络的循环部分——“水库”——是固定的、随机的,而我们只训练一个简单的线性读出层呢?这种架构,包括​​回声状态网络(ESN)​​,被证明非常强大和高效。其灵感直接来自皮层微回路的结构,其特点是巨大、循环、看似随机的连接。该理论指出,只要水库具有“回声状态属性”——即其状态是输入历史的唯一函数——这个高维、非线性的动力系统就充当了一个丰富的特征嵌入。它将复杂输入信号的历史投射到一个空间中,在这个空间里,任务所需的信息变得线性可分,可以被一个简单的下游解码器神经元轻易提取。看来,大脑很久以前就发现了这个技巧。

这种对话一直延伸到硅片层面。在我们努力构建更高效的人工智能时,我们越来越多地转向​​神经形态工程​​,其目标是构建模仿大脑架构和处理方式的芯片。一个基本的设计选择是精度。神经形态芯片应该是模拟的,具有连续值和固有噪声,还是数字的,具有离散值和量化噪声?理论神经科学有助于回答这个问题。通过对不同的神经编码进行建模——例如,信息在于平均发放率的​​速率码​​与信息在于单个脉冲精确时间的​​时间码​​——我们可以分析它们对噪声的稳健性。然后我们可以计算数字系统需要多少比特才能达到与等效模拟系统相同的任务性能(例如,一定的误分类错误率)。这样的分析可能会揭示,例如,时间码对时间精度的要求远高于速率码对计数精度的要求,从而迫使系统时钟的位深度要高于其活动计数器的位深度。这直接将对神经编码的理解转化为具体的工程规范。

统一的观点

我们的巡礼结束了。我们从眼中一个光子的探测开始,穿越了四肢的优雅控制,进入了信念和记忆的内在世界,最后到达了意识和人工心智设计的前沿。值得注意的是,并非这些主题的多样性,而是阐明它们的理论原理的统一性。同样的想法——动力学、推断、优化和信息——以不同的形式一再出现。

神经元的反应归一化是一个增益控制问题。伸手动作的优雅是一个最优控制问题。知觉错觉是一个最优推断问题。人工智能的架构是一个受大脑启发的动力系统。这就是理论方法的魅力和力量所在。它寻求的是基本原理,而大脑的无数细节只是这些原理的一个光辉实例。这项工作远未完成,地图上仍有广阔的未知领域。但我们有了一个指南针,发现的冒险才刚刚开始。