try ai
科普
编辑
分享
反馈
  • 算法性能

算法性能

SciencePedia玻尔百科
核心要点
  • 分析算法性能主要看其运行时间如何随输入规模的增加而变化,这一概念通过大O等渐进符号来形式化。
  • 易解的多项式时间(P)问题与可验证的非确定性多项式时间(NP)问题之间的划分是计算机科学的核心概念。
  • 难解的(NP-hard)问题可以通过近似算法、固定参数可解性(FPT)和随机化算法等策略有效解决。
  • 理论性能分析直接影响工程中的实际权衡,是现代密码学安全的基础,并为优化问题设定了哲学上的限制。

引言

是什么让一个算法比另一个更好?虽然我们的第一反应可能是用秒表计时,但这种方法往往具有误导性。衡量一个算法效率的真正标准,不在于它在单个任务上的速度,而在于其性能如何随着问题规模的增长而伸缩(scale)。一个在处理十个输入时很快的解决方案,在处理一百万个输入时可能会变得慢到无法忍受。因此,这种可伸缩性的概念对于构建稳健而高效的系统至关重要。本文旨在探讨如何正式度量和理解这种伸缩行为这一根本性挑战。

为此,我们需要一种超越特定硬件和实现细节的语言。第一章“原理与机制”将介绍这种语言:即渐进分析和计算复杂性理论这一强大的框架。我们将探讨大O表示法,揭示“简单”(P)问题与“困难”(NP)问题之间的深刻差异,并发现一些巧妙的策略,如参数化和近似,它们能让我们驯服看似棘手的挑战。随后的“应用与跨学科联系”一章将把理论与实践联系起来。我们将看到这些抽象概念如何在工程、网络设计、密码学乃至金融领域产生直接而具体的影响,从而揭示算法性能研究不仅是一项技术活动,更是理解问题解决本身的局限与可能性的重要视角。

原理与机制

想象一下,你有两位都是厨师的朋友,他们各自有一份制作披萨的食谱。你想知道哪份食谱“更快”。是需要20分钟的那份,还是需要30分钟的那份?这看起来很简单。但如果一份食谱是为单人小披萨准备的,而另一份是为百人盛宴准备的呢?简单的时间比较就不再公平。真正的问题不是“需要多长时间?”,而是“随着客人数量的增加,烹饪时间如何增长?”

这正是算法分析的核心。我们不关心一个算法在特定计算机上针对特定任务是花了5毫秒还是50毫秒。这就像在争论烤箱的品牌。我们关心的是食谱本身的根本性质——即随着问题规模变大,工作量如何伸缩。为此,我们需要一种特殊的语言,一种能够洞察算法性能“形态”的方法,剥离所有硬件和实现的干扰细节。

增长的语言:渐进符号的艺术

我们使用的语言称为​​渐进符号​​(asymptotic notation)。“渐进”这个词的意思是,我们关心的是当输入规模——我们称之为 nnn——变得非常非常大时的行为。当你只对十个数字进行排序时,任何合理的方法都很快。但如果你是谷歌,需要对数十亿个网页进行排序,那么伸缩行为就是唯一重要的事。

这些符号中最著名的是​​大O​​(Big O)。如果我们说一个算法的运行时间是 O(n2)O(n^2)O(n2)(读作“n平方的大O”),我们做出了一个简单但有力的陈述:对于足够大的输入 nnn,其运行时间由某个常数乘以 n2n^2n2 作为上界。实际情况可能比这好得多,但绝不会更差。这是一个性能保证,一个最坏情况下的天花板。

但这个保证有一个奇妙的精微之处。假设我们有两个算法。算法A是 O(n2)O(n^2)O(n2),算法B是 n2n^2n2 的​​小o​​(Little-o),写作 o(n2)o(n^2)o(n2)。有什么区别?大O,O(n2)O(n^2)O(n2),意味着运行时间的增长速度不快于 n2n^2n2。这允许算法的运行时间实际上与 n2n^2n2 紧密相关,比如函数 T(n)=5n2+100nT(n) = 5n^2 + 100nT(n)=5n2+100n。但小o,o(n2)o(n^2)o(n2),是一个更严格的陈述。它意味着运行时间的增长速度严格慢于 n2n^2n2。一个函数要在 o(n2)o(n^2)o(n2) 范畴内,它与 n2n^2n2 的比值必须在 nnn 趋近无穷大时趋于零。例如,一个运行时间为 T(n)=2000nln⁡(n)T(n) = 2000n \ln(n)T(n)=2000nln(n) 的算法属于 o(n2)o(n^2)o(n2),因为当 nnn 很大时,nln⁡(n)n2=ln⁡(n)n\frac{n \ln(n)}{n^2} = \frac{\ln(n)}{n}n2nln(n)​=nln(n)​ 会趋于零。这意味着一个 o(n2)o(n^2)o(n2) 的算法从长远来看,其行为保证不是二次的,而这是 O(n2)O(n^2)O(n2) 无法提供的保证。

你可能会认为,对于任意两个算法,其中一个在渐进意义上必然比另一个更快或相等。然而,大自然比这更有创造力。考虑两个奇怪的算法,它们的运行时间根据输入规模 nnn 是奇数还是偶数而振荡:

  • 若 nnn 为偶数,f(n)=n2f(n) = n^2f(n)=n2;若 nnn 为奇数,f(n)=nln⁡(n)f(n) = n \ln(n)f(n)=nln(n)。
  • 若 nnn 为偶数,g(n)=nln⁡(n)g(n) = n \ln(n)g(n)=nln(n);若 nnn 为奇数,g(n)=n2g(n) = n^2g(n)=n2。

哪一个“更好”?都不是!对于偶数规模的输入,g(n)g(n)g(n) 遥遥领先。对于奇数规模的输入,f(n)f(n)f(n) 则是明显的赢家。没有一个函数可以作为另一个函数的上界,所以我们不能说 f(n)=O(g(n))f(n) = O(g(n))f(n)=O(g(n)) 或 g(n)=O(f(n))g(n) = O(f(n))g(n)=O(f(n))。它们根本无法比较。这个奇怪而简单的例子告诉我们一个宝贵的教训:算法世界不是一个简单的阶梯,每个方法都有明确的排名。它是一个丰富、分支繁多的不同行为的景观。

这些复杂性函数通常源于算法的结构。考虑一个递归算法,对于规模为 nnn 的问题,它做少量、常数级的工作,然后对一个规模为 n\sqrt{n}n​ 的问题进行自我调用。其递推关系是 T(n)=T(n)+cT(n) = T(\sqrt{n}) + cT(n)=T(n​)+c。这个算法有多快?让我们追踪一下事件链:我们从 nnn 开始。下一步处理一个规模为 n1/2n^{1/2}n1/2 的问题。然后是 n1/4n^{1/4}n1/4,接着是 n1/8n^{1/8}n1/8,依此类推。在每一步,我们都付出少量常数成本 ccc。问题是,需要多少步才能让问题规模变得很小(比如,小于或等于2)?我们在寻找步数 kkk,使得 n(1/2k)≈2n^{(1/2^k)} \approx 2n(1/2k)≈2。对该式取两次对数,揭示了一个非凡的结果:kkk 大约是 log⁡(log⁡n)\log(\log n)log(logn)。因此,总时间是 Θ(log⁡log⁡n)\Theta(\log \log n)Θ(loglogn)。这是一个增长极其缓慢的函数!对于一个规模为40亿(约 2322^{32}232)的输入,log⁡2(n)\log_2(n)log2​(n) 是32,但 log⁡2(log⁡2(n))\log_2(\log_2(n))log2​(log2​(n)) 仅仅是 log⁡2(32)=5\log_2(32) = 5log2​(32)=5。该算法的结构使其能以惊人少的步骤解决大规模问题。

巨大的分水岭:易解的“P”问题与“NP”之墙

在所有不同的增长率中,有一条分界线在整个计算机科学中最为重要:​​多项式时间​​与​​指数时间​​之间的界线。多项式运行时间看起来像 O(n)O(n)O(n)、O(n2)O(n^2)O(n2) 或 O(n10)O(n^{10})O(n10)。它们被认为是​​易解的​​(tractable)或“高效的”。指数运行时间看起来像 O(2n)O(2^n)O(2n) 或 O(n!)O(n!)O(n!)。它们是​​难解的​​(intractable)。

这种差异不仅仅是学术上的,而是宇宙级的。如果你的算法以 n2n^2n2 时间运行,而你将输入规模加倍,运行时间会增加到四倍。这是可控的。如果它以 2n2^n2n 时间运行,而你只将输入规模增加一,运行时间就会翻倍。一个规模为60的问题,解决它所需的时间将超过宇宙的年龄。

能够被确定性算法在多项式时间内解决的问题类别被称为​​P​​。而​​NP​​类(非确定性多项式时间)则稍有不同。如果一个问题的提议解可以在多项式时间内被验证为正确,那么该问题就属于NP。想象一个数独(Sudoku)谜题:解决它可能非常困难,但如果有人给你一个填好的格子,你可以很快地检查它是否正确。显然,P是NP的子集,因为如果你能快速解决一个问题,你当然也能快速验证一个解(只需再解决一遍,看是否得到相同的答案)。计算机科学中最大的未解之问,附带百万美元奖金,就是P是否等于NP。那些容易验证的问题是否也容易解决?

在这个宏大的问题中,隐藏着一个常常让外行陷入困境的精微之处。考虑著名的​​子集和​​(SUBSET-SUM)问题,它被认为是​​NP完全​​的(意味着它是NP中最“难”的问题之一)。该问题是:给定一组数和一个目标值 SSS,是否存在这组数的某个子集,其和恰好等于 SSS?存在一个算法可以在 O(nS)O(nS)O(nS) 时间内解决此问题,其中 nnn 是物品数量,SSS 是目标和。有人可能会看着表达式 nSnSnS 惊呼:“这是个多项式!这个NP完全问题可以在多项式时间内解决!P=NP!”。

这个结论是错误的,其原因意义深远。在复杂性理论中,“输入规模”不是输入的数值大小,而是写下它们所需的比特数。要写下数字 SSS,我们需要大约 log⁡2(S)\log_2(S)log2​(S) 个比特。运行时间 O(nS)O(nS)O(nS) 在数值 SSS 上是多项式的,但由于 SSS 相对于其自身的比特长度是指数级的(即 S≈2log⁡2SS \approx 2^{\log_2 S}S≈2log2​S),该算法实际上在真实输入规模上是指数级的。这种算法被称为​​伪多项式​​(pseudo-polynomial)算法。它只有在数字本身很小的时候才快。

这种区分使我们能够进一步对NP完全问题进行分类。像子集和问题这样,存在伪多项式算法的问题,被称为​​弱NP完全​​(weakly NP-complete)。它们在数字用一元制(即数字5表示为'11111',其大小为5)书写时可以被快速解决,这一事实表明它们的难度与所涉及数值的大小有关。相比之下,即使所有数字都用一元制编码,仍然是NP完全的问题,则被称为​​强NP完全​​(strongly NP-complete)。它们的难度是结构性的,即使数值很小也不会消失。

超越高墙:应对难题的创造性策略

那么,当面临一个NP难问题时,我们该怎么办?就此放弃吗?当然不!故事并没有在难解性这里结束。相反,它分支成一片由巧妙策略构成的美丽景观,用于在无法达到完美时寻找解决方案。

寻找隐藏的可解性:参数的力量

有时,一个问题之所以“难”,只是因为某个特定的方面。也许输入图巨大,但我们寻找的解很小。这就是​​参数化复杂度​​(parameterized complexity)的核心思想。我们分离出一个我们认为是难度来源的“参数” kkk。如果一个问题可以在 f(k)⋅ncf(k) \cdot n^cf(k)⋅nc 时间内解决,那么它被称为​​固定参数可解的​​(fixed-parameter tractable, FPT)。其中,fff 是关于参数 kkk 的任何函数(甚至是指数函数!),而输入规模 nnn 只作为具有固定指数 ccc 的多项式的底数出现。

关键在于 nnn 的指数是一个常数,与 kkk 无关。将一个运行时间为 O(k!⋅n4)O(k! \cdot n^4)O(k!⋅n4) 的FPT算法与一个运行时间为 O(nk)O(n^k)O(nk) 的算法进行对比。当 kkk 是一个小的常数时,两者都是多项式的。但它们在根本上是不同的。对于FPT算法,指数爆炸被限制在参数 kkk 上。对于任何固定的 kkk,无论多大,随输入规模 nnn 的伸缩都是一个温和的多项式。而对于 O(nk)O(n^k)O(nk) 算法,参数 kkk 位于 nnn 的指数上。这意味着随着输入规模的增长,运行时间的爆炸方式取决于 kkk。这个框架使我们能够识别出那些即使在一般情况下是NP难的,但在参数较小时是“易解”的问题。正如NP完全性为我们提供了问题不在P类中的证据一样,​​W[1]-硬度​​(W[1]-hardness)理论也为问题不是固定参数可解的提供了强有力的证据,引导我们避免徒劳地去寻找FPT算法。

足够好就是好:近似的世界

如果我们无法高效地找到完美的解决方案,或许我们可以找到一个几乎完美的。这就是近似算法的目标。对于一个优化问题,如果一个算法对于任何期望的误差容忍度 ϵ>0\epsilon > 0ϵ>0,都能在多项式时间内找到一个与最优解相差在 (1+ϵ)(1+\epsilon)(1+ϵ) 因子内的解,那么它就是一个​​多项式时间近似方案​​(Polynomial-Time Approximation Scheme, PTAS)。这里的代价是,运行时间可能非常糟糕地依赖于 ϵ\epsilonϵ。例如,一个 O(n2/ϵ)O(n^{2/\epsilon})O(n2/ϵ) 的运行时间是一个PTAS;对于任何固定的 ϵ\epsilonϵ,运行时间在 nnn 上是多项式的,但当你要求更高的精度(更小的 ϵ\epsilonϵ)时,nnn 的指数会爆炸式增长。

近似算法的圣杯是​​完全多项式时间近似方案​​(Fully Polynomial-Time Approximation Scheme, FPTAS)。FPTAS是一种PTAS,其运行时间在 1/ϵ1/\epsilon1/ϵ 上也是多项式的。一个运行时间为 O(n3ϵ5)O(\frac{n^3}{\epsilon^5})O(ϵ5n3​) 的算法是FPTAS,而一个运行时间为 O(n2⋅31/ϵ)O(n^2 \cdot 3^{1/\epsilon})O(n2⋅31/ϵ) 的算法仅仅是一个PTAS,因为它对 1/ϵ1/\epsilon1/ϵ 的依赖是指数级的。FPTAS提供了两全其美的方案:对于任何合理的精度,都有一个多项式时间的保证。

掷骰子:将随机性作为对抗最坏情况的武器

最后,驯服复杂性最优雅的工具之一是随机性。想象一个算法有一个阿喀琉斯之踵——一小部分“对抗性”输入会导致它运行到天荒地老。如果敌人了解你的算法,他们就可以构造这样的输入,让你的系统瘫痪。

现在,考虑一种不同类型的算法:随机化算法。它的执行路径不是固定的;它根据内部的“抛硬币”结果来做决策。其美妙之处在于,它的性能现在不取决于输入,而取决于它自身随机选择的结果。可能存在一些不幸的抛硬币序列导致运行时间很长,但这种情况发生的概率很小,而且至关重要的是,对手无法强迫它发生。

这催生了​​ZPP​​(零错误概率多项式时间,Zero-error Probabilistic Polynomial time)类中的算法,也称为拉斯维加斯(Las Vegas)算法。它们总是给出正确答案,但其运行时间是一个随机变量。一个ZPP算法保证,对于任何输入——即使是由对手选择的——其*期望运行时间是多项式的。这比一个在特定、友好的输入分布下其平均情况*运行时间是多项式的确定性算法的保证要强得多。ZPP算法的保证在面对世界能抛出的最坏情况时依然成立,使随机性成为对抗最坏情况行为的强大护盾。

从简单的计步到参数、近似和随机性的复杂运用,算法性能的研究是一场探索计算的基本极限与惊人可能性的旅程。它不仅教我们如何构建更快的机器,还教我们如何更深刻地思考问题解决本身的本质。

应用与跨学科联系

我们花了一些时间学习算法性能的形式化语言——大O、复杂性类别、严谨的计步方式。这无疑是一种强大的语言。但它有何用途?在计算机科学教科书的纯净世界之外,它与现实世界有任何关系吗?答案是肯定的。这种思维方式不仅关乎让计算机程序运行得更快;它是一个理解效率、权衡以及可能性极限的基本视角,不仅在计算领域,而且跨越了一系列令人惊叹的人类活动。

让我们踏上一段旅程,从工程师的车间到理论物理和金融的前沿,看看这些思想是如何发挥作用的。

工程师的现实:理论与肮脏世界的交锋

第一站是务实的工程师的世界,他们必须建造能够实际工作的东西。在这里,复杂性理论清晰的线条与硬件和用户需求的混乱现实相遇。你可能会惊讶地发现,有时,“理论上最好”的解决方案在实践中却是最差的。

想象你有一个问题,你知道它属于P类,这意味着存在一个确定性的多项式时间算法。你面临两个选择:一个运行时间为 O(n12)O(n^{12})O(n12) 的确定性算法,和一个运行时间为 O(n3)O(n^3)O(n3) 但有极小错误概率(比如 1−2−1281 - 2^{-128}1−2−128)的随机化算法。你会选哪个?理论家可能会被 O(n12)O(n^{12})O(n12) 算法吸引,因为它“保证”正确。但工程师知道,对于任何有意义的输入规模 nnn,比如 n=100n=100n=100,操作数 10012100^{12}10012 是一个天文数字,远远超出了任何未来可能建造的计算机的能力。而 O(n3)O(n^3)O(n3) 算法则是完全可行的。那么那个错误呢?2−1282^{-128}2−128 的概率是如此之小,以至于在计算过程中,你的计算机内存被宇宙射线扰乱的可能性要大得多。在现实世界中,“不完美”的随机化算法是唯一明智的选择,这是一个完美的例子,说明了现实约束如何超越理论上的纯粹性。

抽象模型与物理机器之间的这种张力甚至更深。我们的复杂性模型通常假设一个基本操作,比如两个数相乘,花费常数时间。但真的是这样吗?考虑我们计算机使用的数字,即所谓的浮点数。IEEE 754标准,一个工程杰作,包含了一类非常小的特殊数字,称为“次正规数”(subnormal)或“非规格化数”(denormal),用于处理结果极度接近零的计算。然而,在许多处理器上,对这些次正规数进行算术运算需要特殊的、缓慢的硬件路径或微代码。结果就是一个“性能悬崖”:一个在处理常规数字时运行流畅的算法,一旦其计算进入次正规数范围,速度可能会突然下降100倍甚至更多。为科学模拟或实时信号处理编写高性能代码的工程师必须敏锐地意识到这一点。他们甚至可能故意将这些微小的数字“冲刷”为零,牺牲一点数值精度以避免灾难性的性能打击,这是一种对于任何没有深入了解机器底层的人来说都不可见的权衡。

问题的形态

所以,现实世界是混乱的。但我们的理论比你想象的要精妙得多。它为我们提供了推理这种混乱的工具。其中最深刻的见解之一是,算法的性能不是算法本身的固定属性;它是算法与*输入数据结构*之间的二重奏。

考虑一个简单的任务:一位网络工程师有一份网络中所有数据链路的列表,并希望找到延迟最高的那一个。直接的方法是扫描整个包含 EEE 个链路的列表,记录迄今为止看到的最大值。这是一个经典的线性扫描,其复杂度就是 O(E)O(E)O(E)。路由器的数量 VVV 无关紧要;我们只关心需要检查的链路数量。

但现在让我们分析一个更复杂的算法,也许是用于寻找最优网络路由路径的算法,其复杂度已知为 O(Elog⁡V)O(E \log V)O(ElogV)。它的性能如何?嗯,这要看情况!如果网络是稀疏的,就像由一条高速公路连接的一长串城镇,边数 EEE 可能大致与顶点数 VVV 成正比。复杂度将接近 O(Vlog⁡V)O(V \log V)O(VlogV)。但如果网络是一个完全的、密集互联的图,其中每个顶点都与其他所有顶点相连呢?在这种情况下,边数 ∣E∣|E|∣E∣ 与 ∣V∣2|V|^2∣V∣2 成正比。将此代入我们的复杂度公式,性能就变成了 O(V2log⁡V)O(V^2 \log V)O(V2logV)。完全相同的算法,基于输入图的连通性,表现出截然不同的伸缩行为。

这种根据数据的预期形态选择算法的思想,是专家级算法设计的基石。想象你正在设计一个物流系统,以寻找在庞大网络中流通货物的最便宜方式。你找到了两种最先进的算法。深入分析后发现,一种算法的运行时间取决于网络中任何链路最大容量的对数,log⁡U\log UlogU。另一种的运行时间则取决于最大成本的对数,log⁡C\log ClogC。如果你在模拟全球航运线路,那里的容量(UUU)巨大,但成本(CCC)相对简单,那么按成本伸缩的算法将远远优越。它的性能不受巨大容量的影响。然而,如果你在模拟一个带宽有限但定价复杂、分层的数据中心,那么按容量伸缩的算法可能是更好的选择。理论并没有给你一个单一的“最佳”答案;它给了你一张导航权衡的地图。

驯服难解的怪兽

现在我们来到了计算世界的巨兽面前:NP完全问题。这些问题——比如旅行商问题——被广泛认为是“难解的”,意味着任何完美解决它们的算法都需要随输入规模指数增长的运行时间。对于这些问题,我们是否就束手无策了?

完全不是。再次,对性能更细致的理解揭示了寻找解决方案的巧妙方法。考虑经典的0-1背包问题,我们希望在不超过重量容量 WWW 的情况下,将最有价值的物品装入背包。有一个著名的动态规划解法,其运行时间为 O(nW)O(nW)O(nW),其中 nnn 是物品数量。这看起来像个多项式,不是吗?但这是一个诡计!在复杂性理论中,“输入规模”是以写下问题所需的比特数来衡量的。数字 WWW 只需 log⁡2W\log_2 Wlog2​W 个比特即可表示。这意味着运行时间 O(nW)O(nW)O(nW) 实际上是 WWW 的比特长度的指数函数。这就是为什么它被称为​​伪多项式​​算法。它仅在 WWW 的数值很小时才快。

这种区分不仅仅是学术上的吹毛求疵。它打开了一扇门。如果我们有一个问题,比如相关的子集和问题,但我们从应用的上下文中知道目标数 TTT 永远不会大得惊人,该怎么办?假设我们知道 TTT 总是被某个关于 nnn 的多项式所限制,比如 T≤n2T \leq n^2T≤n2。在这种特殊情况下,伪多项式运行时间 O(nT)O(nT)O(nT) 变成了 O(n⋅n2)=O(n3)O(n \cdot n^2) = O(n^3)O(n⋅n2)=O(n3)。对于这个受限版本的问题,该算法现在是一个真正的多项式时间算法!我们驯服了这只怪兽,不是通过找到新算法,而是通过认识到我们需要解决的问题中的特殊结构。

这个思想在​​参数化复杂度​​这个美丽的领域中达到了顶峰。许多NP难问题都涉及在一个大小为 nnn 的大输入中寻找一个由参数 kkk 标识的小解。例如,在顶点覆盖问题中,我们可能正在寻找一个大型网络中接触到每条链路的 kkk 个“守护”节点组成的小集合。很长一段时间里,唯一已知的算法在 nnn 上是指数级的。但现代算法已经被发现,其运行时间类似 O(1.274k⋅n)O(1.274^k \cdot n)O(1.274k⋅n)。让我们体会一下这意味着什么。所有讨厌的指数增长——组合爆炸——都被隔离并限制在参数 kkk 上。如果我们正在寻找一个小覆盖(比如,k=10k=10k=10 或 k=20k=20k=20),1.274k1.274^k1.274k 这一项只是一个适中的常数因子,而算法的运行时间与整个网络的大小 nnn 线性伸缩。这就是固定参数可解性(FPT)的魔力:它为“难解”问题提供了高效、实用的解决方案,前提是我们关心的参数很小。一个算法被认为是FPT的关键要求是,nnn 上的指数必须是一个不依赖于 kkk 的常数;一个运行时间如 O(nlog⁡k)O(n^{\log k})O(nlogk) 的算法不是FPT,因为随着 kkk 的增加,它随 nnn 的伸缩会变得更糟。

从代码到密码学与思想的宇宙

这种关于“简单”与“困难”的思考方式所产生的影响,远远超出了优化代码的范畴。它构成了我们现代数字文明的基石。

你有没有想过是什么让网上银行如此安全?像RSA这样的密码系统的安全性,并非基于某个锁在保险库里的秘密公式。其方法是公开的知识。它的安全性依赖于一个计算硬度假设:对于经典计算机来说,找到一个非常大的数 NNN 的质因数被认为是难解的。没有已知的“解析公式”可以直接计算出这些因数。所有已知的方法都是“数值的”——它们是算法,其步数随 NNN 的大小而伸缩。这些算法中最好的,其运行时间是亚指数的,但增长速度仍然快得惊人,以至于分解一个2048位的数字需要传统计算机数十亿年的时间。我们实际上是在押注,一个针对该问题的高效算法尚未被发现。密钥大小的选择是基于对已知最佳分解算法性能的直接计算,旨在比计算机能力增长的曲线领先几步。

最后,让我们思考一下对完美算法的追求。在金融领域,量化分析师和对冲基金花费数十亿美元寻找终极的自动交易算法。是否有可能找到一个在所有市场条件下都普遍优于所有其他算法的算法?优化的“没有免费午餐”(No-Free-Lunch, NFL)定理给出了一个深刻而谦卑的答案。它指出,如果你在所有可能问题(或者在这种情况下,所有可能的市场行为)的空间上平均性能,没有一个搜索算法比任何其他算法更好。一个在牛市中 brilliantly 擅长发现趋势的算法,在动荡的横盘市场中必然是一场灾难。对于每一个天才算法,都存在一个它表现糟糕的“病态”环境。获得卓越性能的唯一方法是拥有先验知识——做出一个假设,即世界以某种受限的方式运行。寻找一个普遍完美的算法是徒劳的。专业化就是一切。

因此,我们看到,算法性能研究远不止是一项技术活动。它是一个知识框架,为工程权衡提供信息,根据世界结构指导我们选择工具,为解决看似不可能的问题提供出人意料的途径,保障我们的数字生活,甚至为我们对优化的追求设定了哲学上的限制。它以其自己的方式,成为一门关于可能性的科学。