try ai
科普
编辑
分享
反馈
  • 神经网络设计:原理、架构与应用

神经网络设计:原理、架构与应用

SciencePedia玻尔百科
核心要点
  • 神经网络的基本构件是人工神经元,它是一个简单的计算单元,通过计算其输入的加权和来做出决策。
  • 有效的网络设计涉及选择能反映问题内在结构的专用架构,例如用于空间数据的卷积神经网络(CNN)和用于序列数据的循环神经网络(RNN)。
  • 偏见-方差权衡是一个核心挑战,通过权重衰减和数据增强等正则化技术来管理,以防止过拟合并确保模型能泛化到新数据上。
  • 通过将物理守恒定律等科学原理直接编码到网络架构中,可以构建出与领域知识内在一致的模型。
  • 现代网络设计是一个多目标优化问题,它使用复合缩放来平衡模型的深度、宽度和输入分辨率,以在延迟和内存等特定硬件约束下最大化准确率。

引言

神经网络已成为现代技术和科学中最强大的工具之一,能够完成从识别疾病到创作音乐等各种任务。然而,对许多人来说,它们仍然是一个“黑箱”——一个内部运作机制神秘复杂的系统。但创建这些网络的过程并非魔法,而是一门精密的工程与科学学科。其真正的力量不仅在于堆叠更多的层,更在于深思熟虑、有原则的设计行为。本文旨在揭开这一过程的神秘面纱,弥合看到网络输出与理解其构造之间的鸿沟。

这段探索之旅将分两个关键阶段展开。首先,在“原理与机制”部分,我们将从神经网络最简单的组成部分——人工神经元——开始,解构神经网络。我们将探讨这些神经元如何组装成层和网络,研究 CNN 和 RNN 等专用架构的设计,并理解如何对其进行调优和缩放以获得最佳性能。随后,“应用与跨学科联系”部分将展示如何运用这些设计原理来构建定制模型以解决复杂问题,说明将我们对物理学、生物学及其他领域的知识编码到网络结构中,如何能够带来深刻的科学见解。

原理与机制

既然我们已经对神经网络的功能有了宏观的了解,现在就让我们层层剥开,探究其内部的引擎。一堆简单的互连部件是如何产生如此非凡的能力的?这是一段引人入胜的旅程,它始于一个简单而朴素的想法,最终发展成为一门精密的工程学科。这是一个关于简单规则在组合和扩展后如何产生复杂性和智能的故事。

思想的火花:人工神经元

神经网络的基本构件是什么?其名称本身就提示我们应该着眼于大脑。生物神经元是一种细胞,它接收来自其他神经元的信号,整合这些信号,如果组合后的信号足够强,它就会“放电”,将自己的信号传递出去。它是一个微小的决策者。

让我们试着用最简单的方式来捕捉这个想法。想象一个小型委员会正在对一项提案进行决策。委员会有位高级经理 (x1x_1x1​) 和两位初级经理 (x2x_2x2​ 和 x3x_3x3​)。批准的规则很简单:当且仅当高级经理批准,并且至少有一位初级经理也批准时,提案才能通过。我们可以将其写成一个逻辑表达式:批准 = x1∧(x2∨x3)x_1 \land (x_2 \lor x_3)x1​∧(x2​∨x3​),其中 111 代表“批准”,000 代表“拒绝”。

我们如何构建一台机器来自动完成这个决策呢?让我们为每位经理的投票分配一个“重要性”或​​权重​​。高级经理的意见至关重要,所以我们可以给她的投票权重设为 w1=2w_1 = 2w1​=2。初级经理也很重要,但个人重要性较低;我们给他们的权重设为 w2=1w_2 = 1w2​=1 和 w3=1w_3 = 1w3​=1。现在,我们可以通过将所有投“批准”票的人的权重相加来计算一个“投票得分”:得分 = w1x1+w2x2+w3x3w_1 x_1 + w_2 x_2 + w_3 x_3w1​x1​+w2​x2​+w3​x3​。

我们设定一个批准的​​阈值​​,比如 T=3T=3T=3。如果得分达到或超过 333,提案就获得批准。让我们看看这是否可行:

  • 如果高级经理拒绝 (x1=0x_1=0x1​=0),可能的最大得分是 1+1=21+1=21+1=2,小于 333。提案未通过。正确。
  • 如果高级经理批准 (x1=1x_1=1x1​=1) 但两位初级经理都拒绝 (x2=0,x3=0x_2=0, x_3=0x2​=0,x3​=0),得分为 222。这小于 333。提案未通过。正确。
  • 如果高级经理批准 (x1=1x_1=1x1​=1) 并且一位初级经理批准 (比如 x2=1,x3=0x_2=1, x_3=0x2​=1,x3​=0),得分为 2+1=32+1=32+1=3。这达到了阈值。提案获得批准。正确!

这个简单的机制就是人工神经元的核心。它是一个计算其输入的​​加权和​​并与一个阈值进行比较的装置。对于一个有 nnn 个输入的神经元,我们可以用数学公式表示如下:

output={1if ∑i=1nwixi≥T0if ∑i=1nwixi<T\text{output} = \begin{cases} 1 \text{if } \sum_{i=1}^{n} w_i x_i \ge T \\ 0 \text{if } \sum_{i=1}^{n} w_i x_i \lt T \end{cases}output={1if ∑i=1n​wi​xi​≥T0if ∑i=1n​wi​xi​<T​

这是一个​​阈值函数​​,它是我们整个事业的美丽而简单的核心。通过选择不同的权重和阈值,这个单一单元可以学会做出各种各样的简单决策。在现代网络中,我们通常将阈值移到等式的另一边,称之为​​偏置​​,并用更平滑的​​激活函数​​取代硬性的阶跃函数,但基本思想保持不变:权衡证据,做出决策。

从神经元到网络:复杂性的代价

单个神经元可以做出简单的决策。但要解决复杂问题——比如区分猫和狗——我们需要一整个团队的神经元。我们将这些神经元组织成​​层​​。信息从接收原始数据(如图像的像素)的​​输入层​​流经一个或多个​​隐藏层​​,最终到达给出最终答案的​​输出层​​。

当我们连接这些神经元时,每个连接都有自己的权重。这就是“学习”发生的地方:网络调整这些权重以产生正确的输出。但这种能力是有代价的。让我们考虑一个旨在预测两种蛋白质是否会相互作用的简单网络。假设我们用一个包含50个数字的列表(一个特征向量)来表示每种蛋白质。我们的输入层将有 2×50=1002 \times 50 = 1002×50=100 个节点。如果我们将它连接到一个包含128个神经元的隐藏层,仅这些连接就需要 100×128=12,800100 \times 128 = 12,800100×128=12,800 个权重!这128个神经元中的每一个也都有自己的偏置,所以又多了128个参数。

如果我们再增加一个包含64个神经元的隐藏层,就需要另外 128×64=8,192128 \times 64 = 8,192128×64=8,192 个权重,外加64个偏置。最后,将其连接到单个输出神经元又增加了64个权重和1个偏置。这个看似简单的网络的可训练参数总数为 12,928+8,256+65=21,24912,928 + 8,256 + 65 = 21,24912,928+8,256+65=21,249。

这个简单的计算揭示了神经网络设计的一个关键方面:复杂性。​​可训练参数​​的数量是网络​​容量​​的度量——即其拟合复杂模式的能力。但它也是衡量其成本的指标,包括存储模型的内存和训练模型的计算量。随着我们设计出更强大的网络,管理这种复杂性成为一个核心挑战。

隐藏的机制:作为计算图的网络

那么我们有了这个由互连节点和权重组成的巨大集合。计算机实际上是如何处理它的呢?这不是魔法,而是一种组织精美的计算。一个前馈神经网络可以被看作是一个​​有向无环图 (DAG)​​。神经元是节点,连接是带权重的有向边。信息单向流动,从输入节点到输出节点,没有任何循环。

“前向传播”——即为给定输入从网络获得答案的过程——仅仅是按顺序评估节点的问题。你从输入开始,然后计算第一个隐藏层中神经元的值,然后是第二个,依此类推,直到到达输出。这相当于对图进行拓扑排序。

但它在软件中是如何实现的,对性能有着深远的影响。一种幼稚的方法可能是遍历每个神经元。一种更聪明的方法是认识到一层的计算只是一个矩阵-向量乘法。对于一个密集的、全连接的层,将权重表示为一个密集的​​邻接矩阵​​,使我们能够使用高度优化的线性代数库(如BLAS)。这些库针对底层硬件进行了调优,充分利用计算机的​​内存缓存​​来以惊人的速度执行这些计算。

然而,我们设计的许多网络并非全连接的;它们是​​稀疏的​​。在这种情况下,存储一个充满零的巨大邻接矩阵是浪费的。一个更好的表示方法是​​邻接列表​​,它为每个神经元简单地列出它所连接的其他神经元。对于稀疏网络而言,这种方法在内存效率上要高得多,并且允许算法的运行时间与边的数量(连接数)成正比,而不是与可能连接的数量成正比。

这揭示了网络架构的抽象理论与计算机科学和硬件工程的具体现实之间深刻的统一性。表示和计算一个网络的最佳方式取决于其结构,而现代深度学习框架正是驾驭这些权衡的工程杰作,使得训练这些庞大模型成为可能。

精心设计:有目的的架构

早期,人们曾希望通过堆叠足够多的通用全连接层来解决任何问题。经验教给我们一些更深刻的东西:网络的架构应该反映问题的结构。我们不仅需要更大的网络,还需要更聪明的网络。

用 CNN 看世界

考虑图像识别问题。图像具有很强的​​空间结构​​。一个像素的意义高度依赖于其邻近的像素。如果我们将图像展平为一个长向量并输入到一个标准的全连接网络中,我们就会丢失这种宝贵的空间信息。此外,参数的数量将是天文数字。

​​卷积神经网络 (CNN)​​ 是解决这个问题的绝妙方案。它建立在两个强大的思想之上,我们可以通过思考另一种序列来理解它们:蛋白质序列。假设我们正在序列中寻找一个短的、保守的模式(一个“基序”)。

  1. ​​作为模式检测器的学习滤波器:​​ CNN 不会将每个输入连接到第一个隐藏层中的每个神经元,而是使用小的​​滤波器​​(也称为核),一次只观察输入的一小块区域——一个局部感受野。这个滤波器本质上是一个模式的模板。当它在输入上滑动,或称​​卷积​​时,它会计算一个点积。当输入的局部区域看起来像滤波器中的模式时,结果会是一个高值。网络学习要寻找的最佳模式;这些滤波器成为训练有素的检测器,用于检测边缘、角落、纹理,或者在我们的例子中,特定的氨基酸基序。

  2. ​​参数共享和平移不变性:​​ 神奇之处在于此。CNN 在整个输入上使用完全相同的滤波器。如果一个滤波器学会了检测垂直边缘,那么无论这个边缘出现在图像的左侧、右侧、顶部还是底部,它都能检测到。这个属性被称为​​平移不变性​​。这一个设计选择带来了两个巨大的好处:它极大地减少了参数数量(我们学习一个滤波器,而不是数百个独立的位置检测器),并且它为像图像识别这样的任务建立了正确的假设——一个物体的身份不依赖于它的位置。

一个典型的 CNN,比如在 中设计的那个,是卷积层、激活函数和​​池化层​​的精心编排序列。池化层(例如,最大池化)对特征图进行下采样,使得表示更加紧凑,并且对微小的位移和扭曲更具不变性。CNN 的设计者会有意地选择滤波器大小、滤波器数量、stride(滤波器跳跃的像素数)和padding(在边界周围添加零),以精确控制数据在流经网络时其空间维度的变换方式。

用 RNN 记住过去

那么对于顺序至关重要的数据,如文本、语音或时间序列,又该如何处理呢?在这里,意义不仅是空间的,而且是序列的。例如,蛋白质在给定位置的二级结构受到其前后氨基酸的影响。像 FNN(前馈神经网络)可能使用的固定大小窗口是有限的,因为它只能看到固定数量的上下文。

​​循环神经网络 (RNN)​​ 就是为此设计的。其核心思想是一个​​隐藏状态​​,你可以将其视为一种记忆形式。在序列的每一步,RNN 接收当前输入(例如,一个词)和它在前一步的隐藏状态。它将两者结合起来,为当前步骤生成一个输出,并且至关重要的是,更新其隐藏状态以传递到下一步。

ht=f(ht−1,xt)h_t = f(h_{t-1}, x_t)ht​=f(ht−1​,xt​)

这种递推关系允许信息在序列中持续存在并流动,使网络能够捕捉长距离的依赖关系。对于需要过去和未来上下文的问题,​​双向 RNN (Bi-RNN)​​ 更为强大。它本质上是两个 RNN 合二为一:一个从头到尾处理序列,另一个从尾到头处理。在每个位置,最终的表示是前向和后向隐藏状态的组合,为模型提供了对上下文的完整视图。

对稳定性的追求

这种循环更新,即一个步骤的状态取决于前一步骤的状态,看起来与另一个领域的某个东西惊人地相似:对由常微分方程 (ODE) 描述的动力系统的数值模拟。这不是巧合,而是一种深刻而美丽的联系。

在某种意义上,RNN 是一个连续时间动力系统的离散模拟。但任何研究过数值方法的人都知道,这样的模拟可能是不稳定的——微小的误差会指数级增长,直到模拟“爆炸”。同样的情况也可能在 RNN 训练期间发生,这个问题被称为梯度爆炸。

现代研究已经将这种联系铭记于心。一些最鲁棒的 RNN 架构被设计来模仿稳定的 ODE 求解器。例如,形如 hn+1=hn+Δt f(hn+1)h_{n+1} = h_{n} + \Delta t\, f(h_{n+1})hn+1​=hn​+Δtf(hn+1​) 的更新规则隐式地定义了下一个状态。这正是​​后向欧拉法​​,一种著名的稳定积分器。这样的网络保证在某些问题类别上不会爆炸,这一特性被称为 ​​A-稳定性​​。它可以稳健地处理“刚性”动力学,即系统的不同部分在截然不同的时间尺度上演化——这是现实世界物理和生物系统中的一个共同特征。这是科学统一性的一个完美例子,其中来自数值分析的深刻概念为机器学习中的一个问题提供了直接的解决方案。

调优的艺术与科学:寻找最佳点

设计一个出色的架构只是成功的一半。一个拥有数百万参数的网络就像一头强大但未被驯服的野兽。它有能力学习几乎任何东西,包括我们特定训练数据中的随机噪声和怪癖。这被称为​​过拟合​​。模型在它见过的数据上表现完美,但在新的、未见过的数据上却一败涂地。在另一个极端,如果我们的模型过于简单,它可能根本没有能力捕捉到底层模式。这就是​​欠拟合​​。

网络设计的旅程是在​​偏见-方差权衡​​中寻求“最佳点”的探索。关键在于​​正则化​​:即约束模型复杂性以防止过拟合的技术。我们武器库中最强大的两个工具是:

  1. ​​权重衰减 (L2 正则化):​​ 这会在损失函数中增加一个与网络权重平方大小成正比的惩罚项。它不鼓励模型依赖少数几个非常大的权重,而是鼓励它找到更简单的解决方案,将预测能力更均匀地分布。

  2. ​​数据增强:​​ 在数据量较少的情况下,对抗过拟合的最佳方法之一是获取更多数据。如果我们无法收集更多数据,我们可以创造它!数据增强涉及对我们现有的数据应用现实的、保持标签不变的转换:轻微旋转或裁剪图像,改变其亮度,或添加一点噪声。这教会网络对这些变化保持鲁棒性,并有效地扩展了训练集。

我们如何知道自己是过拟合还是欠拟合?我们观察​​验证误差​​——即模型在不用于训练的独立数据集上的误差。当我们增加正则化的强度(例如,更大的权重衰减系数 λ\lambdaλ 或更激进的数据增强 γ\gammaγ)时,验证误差通常会呈现一个 U 形曲线。 完美地展示了这一诊断过程。如果增加正则化降低了验证误差(即 ∂Eval∂λ<0\frac{\partial E_{\text{val}}}{\partial \lambda} \lt 0∂λ∂Eval​​<0),说明我们处于曲线的过拟合一侧。如果增加正则化增加了验证误差(∂Eval∂λ>0\frac{\partial E_{\text{val}}}{\partial \lambda} \gt 0∂λ∂Eval​​>0),则说明我们做得过头,现在处于欠拟合状态。调优的目标是找到那个“U”形的底部。

规模化原则:现代设计流程

正如我们所见,设计神经网络涉及一系列深思熟虑的选择。在现代,这个过程已经成为一门复杂的科学,由清晰的规模化原则指导。

深与宽

一个基本问题长期困扰着研究人员:在给定的参数“预算”下,是构建一个非常宽(每层神经元很多)的网络更好,还是一个非常深(层数很多)的网络更好?理论上的见解 帮助我们将其框定为两种相互竞争的力量之间的平衡:

  • ​​近似误差 (偏见):​​ 这衡量了一个给定架构的网络能够在多大程度上表示真实的底层函数。更深和更宽的网络都具有更强的表达能力,可以减少这种误差。
  • ​​估计误差 (方差):​​ 这衡量了由于我们只有有限的训练数据,我们学习到的模型与最优模型可能存在的差异。更复杂的模型(更多参数,更深层次)更难正确估计,并且往往具有更高的估计误差。

总的泛化误差是这两者之和。最优的架构不一定是原始能力最强的那个,而是在给定数据量和参数预算下,达到最佳平衡的那个。对于许多表现出层级结构的问题(如图像,其中像素构成边缘,边缘构成形状,形状构成物体),深度已被证明是比宽度更有效地利用参数的方式,这催生了深度学习中的“深度”。

复合缩放

现代网络设计的最终图景是一个多目标优化问题。我们不仅关心准确性。我们还关心​​延迟​​(它运行多快?)和​​内存​​(它占用多少空间?),尤其是在像智能手机这样的资源受限设备上部署模型时。

网络的性能不仅受其深度和宽度的影响,还受输入图像的​​分辨率​​的影响。更高的分辨率提供更多细节,但在每一层都计算成本更高。像 EfficientNet 这样的方法的关键见解是,这三个维度——深度(α\alphaα)、宽度(β\betaβ)和分辨率(γ\gammaγ)——不是独立的。最佳方法是​​复合缩放​​:以一种平衡的方式同时缩放这三者。

我们可以将其形式化为一个优化问题。我们写下准确率、延迟和内存如何依赖于 α,β,γ\alpha, \beta, \gammaα,β,γ 的模型。然后,我们定义一个标量目标函数,该函数奖励准确率但惩罚延迟和内存,并根据我们特定的硬件依赖优先级进行加权。然后,我们求解在总计算预算下最大化该目标的最优缩放因子 (α∗,β∗,γ∗)(\alpha^*, \beta^*, \gamma^*)(α∗,β∗,γ∗)。

这让我们的旅程回到了起点。我们从一个简单的、受大脑启发的阈值单元想法开始。我们学会了将它们连接成网络,设计它们的架构以匹配我们问题的结构,理解它们的计算基础,调整它们以对抗过拟合,最后,根据数学原理和硬件约束系统地扩展它们。这就是神经网络设计的美妙弧线:一个从玄学发展成为一门有原则、有力量的现代工程分支的领域。

应用与跨学科联系

现在我们已经探索了构建神经网络的基本原则——层、激活函数、优化器——我们可以开始一段更激动人心的旅程。我们准备好超越将这些模型仅仅视为“黑箱”的阶段,开始欣赏它们的真正面目:一种描述世界的新颖、强大且极其灵活的语言。

神经网络设计的真正艺术并不仅仅在于堆叠更多的层或增加更多的神经元。它是一种创造性的翻译行为。它是将我们对一个问题最深刻的理解——其内在的对称性、基本定律、自然结构——直接编码到网络架构中的过程。这种将我们的假设内建于模型中的做法,被称为赋予归纳偏见。如果做得好,它能将一个通用算法转变为一个功能强大、设计优雅的定制化科学仪器。

现在,让我们跨越科学和工程的广阔领域,见证这一原则的实际应用。我们将看到同样的基本构件如何以巧妙的方式排列,以模拟生命、遵守物理定律、控制机器,甚至改进驱动我们数字世界的算法本身。

网络中的宇宙:模拟复杂系统

自然界中许多最迷人的现象,从细菌菌落的生长到谣言的传播,都源于简单的规则在局部一遍又一遍地应用。几十年来,科学家一直使用元胞自动机来模拟这类系统。因此,令人瞩目的是,卷积神经网络(CNN)的架构几乎是元胞自动机结构的完美镜像。CNN核的局部感受野类似于自动机的邻域规则,而参数共享的特性——在各处应用相同的核——与自动机的平移不变更新规则完全相同。这使得CNN成为一种天然的、几乎是预先注定的工具,可以直接从观察中学习基于网格的复杂系统的规则,例如从显微镜图像中模拟细菌生物膜的生长。

但是,如果我们想要模拟的系统并不存在于一个整齐、规则的网格上呢?考虑一种疾病在人群中的传播,这最好用一个复杂的社交接触网络来描述。在这里,一种专门的架构——图神经网络(GNN)——再次提供了一个惊人恰当的模型。在 GNN 中,信息通过一种称为消息传递的过程从一个节点传播到另一个节点。这与感染沿着接触图的边从一个人传给另一个人的过程直接对应。当我们考虑网络的设计时,一个更深的联系浮现出来:消息传递的步数,或者说 GNN 的深度,可以直接设计为对应于我们希望模拟的流行病学传播代数。网络的架构体现了系统的时间尺度。

这种网络分层结构代表层级体系的思想,已经超越了直接模拟,扩展到更概念化的框架。想象一下试图理解一个广阔的生态系统。在最低层,你有单个生物体。在更高层,你有相互作用的种群和群落。在最高层,你有整个生物群系。一个在物种分布的卫星图像上训练的深度 CNN 会自动学习到一个类似的层级结构。早期的层,由于其小的感受野,响应局部模式——单个物种的存在。随着我们深入网络,池化层聚合信息并扩大有效感受野,使得神经元能够学习更大规模群落的特征。最终的层,能够看到整个输入,然后可以对生物群系进行分类。这种层级结构并非偶然。像平均池化这样的过程作为一种总结形式,创造了局部的置换不变性,类似于生态学家将个体计数总结为群落层面的统计数据。从信息论的角度来看,每一层都像一个瓶颈,压缩掉特异性的细节,同时保留对高层标签最具预测性的信息,从而迫使有意义的层级结构出现。

教网络学习自然法则

也许架构设计最深刻的应用是创造出不仅能从数据中学习,而且从根本上就遵守基本物理定律的模型。我们不必寄希望于网络能学会能量应该守恒,而是可以构建一个除了守恒别无选择的网络。

这就是​​哈密顿神经网络(HNNs)​​背后的美妙思想。在经典力学中,一个系统的演化可以用哈密顿方程来描述,这些方程具有一种称为辛结构的特殊数学结构。通过设计一个神经网络,使其输出的不是未来的状态,而是一个标量能量函数——哈密顿量——然后使用哈密顿方程的刚性结构来定义动力学,我们创造了一个在数学上保证能够精确守恒该能量的模型。同样的原理也可以应用于 N 体系统中的线动量守恒,方法是设计网络输出完全反对称的两两之间的力,从而通过构造确保牛顿第三定律成立。

这种哲学延伸到了支配量子世界的对称性。例如,苯分子的能量在一系列旋转和反射下是不变的;无论分子在空间中的朝向如何,其能量都相同。一个在分子坐标上训练的通用神经网络可能无法学会这一点。但我们可以设计一个等变GNN 来尊重这种对称性。通过确保网络的操作仅依赖于像原子间距离这样的不变量,我们保证了它的预测与分子的绝对朝向无关。网络学习的是分子的物理特性,而不是我们用来描述它的任意坐标系。

这种方法的力量甚至触及了热力学的抽象领域。在模拟固体材料在应力下的行为时,其响应取决于其历史。这种“记忆”可以用循环神经网络(RNN)来建模,其中隐藏状态自然地充当了材料未观察到的内部变量的代理。在一项真正卓越的设计壮举中,人们可以构建这种 RNN 及其学习规则,以明确强制执行热力学第二定律。通过参数化一个自由能势,并约束隐藏状态的演化始终具有非负耗散,该模型在架构上被禁止违反宇宙最基本的定律之一。

从观察者到行动者:进行决策与控制的网络

到目前为止,我们的网络一直是消极的观察者。但它们也可以成为影响世界的行动者,做出决策。

最直接的例子是在机器人技术中。一个简单的 CNN 可以被训练来接收来自前置摄像头的图像,并为循迹机器人输出转向指令。这创造了一个紧密的感知-行动循环,一个微型的人工神经系统,其中视觉信息被直接转化为运动控制。

这个想法可以推广到更抽象的控制问题。对于一个由各点温度的状态向量描述的复杂热力系统,一个简单的多层感知机可以充当一个复杂的非线性控制器。它将完整的状态作为输入,并计算出最优的控制动作——比如热通量——以将系统维持在期望的状态或引导其沿目标轨迹运行。这是一种功能强大的、数据驱动的方法,用于解决传统上由经典控制理论解决的问题。

网络甚至可以被设计来改进其他算法。考虑计算机科学中经典的快速排序算法,其性能关键取决于在每一步选择一个好的“轴点”元素。虽然标准方法使用固定的规则(如选择中间元素),但可以训练一个小型神经网络来做出更智能的选择。通过观察子数组中数字的一个小样本,网络学会预测真实中位数的位置,从而提供一个好得多的轴点并加速排序。在这里,网络不是作为主要解决者,而是作为一种学习到的启发式方法,使一个经典的算法变得更聪明。

一种通用语言:桥梁与边界

正如我们所见,神经网络设计是一种连接不同领域的通用语言。这种思想的交叉授粉是双向的。新网络架构的灵感可以来自其他领域的经典方法。例如,在计算经济学中,一种长期用于近似高维函数的方法是使用*稀疏网格*。稀疏网格之所以如此高效的背后原理——利用加性结构并专注于重要的相互作用——可以直接启发设计出更高效、更具可解释性的经济建模神经网络。

这种定制化设计也使我们能够构建强大的科学工具。在计算生物学中,可以设计一个一维 CNN 沿着 mRNA 序列进行扫描,以预测其翻译效率。通过仔细对齐输入序列并选择正确的感受野大小,网络可以学会检测 Kozak 共有序列的精确、位置特异性模式,这是调控蛋白质合成的关键生物信号。CNN 变成了一台计算显微镜,自动发现隐藏在我们 DNA 中的规则。

最后,我们必须将我们宏伟的设计带回物理世界。一个网络架构不仅仅是一个抽象的数学对象;它最终必须在硅硬件上运行,而硬件有其自身的物理定律。一个优雅的设计也是一个高效的设计。以 EfficientNet 等模型为例的*复合缩放*实践表明,网络设计是一种平衡行为。深度、宽度和输入分辨率必须以协调的方式进行缩放,以在尊重目标硬件——其计算吞吐量(FLOPsFLOPsFLOPs)和内存带宽——的约束下最大化准确率。一个为强大 GPU 设计的模型,其最优设计将与一个为低功耗 CPU 或专用神经处理单元(NPU)设计的模型大相径庭。这是将架构设计艺术落地的工程现实。

从分子的舞蹈到生态系统的生长,从热力学定律到控制逻辑,神经网络设计的原则提供了一个统一的框架,用于构建不仅强大而且富有洞察力的模型。这段旅程向我们展示了“黑箱”可以变得透明。通过将我们对世界的知识精心编码到其结构中,我们创造了我们试图理解的现实本身的反映,揭示了其内在的美丽与统一。