try ai
科普
编辑
分享
反馈
  • 微架构

微架构

SciencePedia玻尔百科
核心要点
  • 微架构是指令集的具体实现,专注于通过降低每指令周期数(CPI)来提升性能。
  • 流水线、分支预测和乱序执行等技术创造了一个高度并行的内部环境来提升速度,但必须维持简单、顺序执行的假象。
  • 正是那些提升性能的机制,例如推测执行,可能会在微架构状态中产生微妙的旁路信道,从而导致像 Spectre 这样的严重安全漏洞。
  • 用于管理依赖关系和并发的核心微架构概念,在其他复杂系统中也有直接的对应,例如数据库中的多版本并发控制(MVCC)。

引言

微架构是现代计算中隐藏的天才,是连接软件命令的抽象世界与硅逻辑的物理现实之间的桥梁。当我们以一系列简单步骤编写程序时,处理器却在执行一场令人眼花缭乱的高速并行操作之舞,以高效地执行它们。这就产生了一个根本性的知识鸿沟:CPU 是如何将我们有序的指令转化为一场为性能而进行的混乱但正确的争夺?这种转化的后果又是什么?本文将通过探索微架构设计的基础原理来回答这个问题。

首先,在“原理与机制”部分,我们将剖析计算引擎,探索流水线技术、分支预测和乱序执行等让处理器实现惊人速度的技术。我们还将揭示保证正确性的“架构契约”,并了解对其的利用如何导致深远的安全漏洞。随后,在“应用与跨学科联系”部分,我们将看到这些核心思想如何超越硅片,在编译器、操作系统、数据库甚至量子计算机的设计中找到令人惊讶的映照,揭示出一套构建高性能系统的普适原理。

原理与机制

想象一台计算机正在启动。这是一个极其复杂的过程,但它始于一个单一、卑微的步骤。复位后,处理器忠实地从一个预先确定的地址获取其第一条指令,这个位置铭刻在它的硅片灵魂中(例如,在旧的 x86 机器上是 0xFFFFFFF0)。这条属于固件的指令是第一块多米诺骨牌。它引发一连串的连锁反应,初始化硬件,加载引导加载程序,使处理器从古老的实模式转换到强大的保护模式等不同操作模式,并精心设置虚拟内存的基础结构,如页表。只有这样,它才能将控制权移交给操作系统内核,后者随后绽放成我们每天使用的丰富、交互式的环境。

这个启动序列是我们主题的完美序曲。它是一段从原始硬件逻辑到高级软件抽象的旅程。​​微架构​​是那段旅程中看不见的风景。它是一系列巧妙、复杂且极具美感的机制,将软件严格、抽象的规则转化为飞驰电子的物理现实。它关乎的不是处理器做什么,而是它如何做。

计算引擎:性能的三大杠杆

从本质上讲,任何处理器的性能都受一个简单而深刻的关系所支配,这通常被称为 CPU 性能的铁律。运行一个程序所需的总时间(TexecT_{exec}Texec​)由以下公式给出:

Texec=I×CPIfT_{exec} = \frac{I \times CPI}{f}Texec​=fI×CPI​

让我们看看我们可以调控的这三个杠杆:

  1. ​​指令数(III)​​:这是程序执行的指令总数。它主要由程序员、编译器和指令集架构(ISA)——即处理器能理解的词汇表——决定。
  2. ​​时钟频率(fff)​​:这是处理器的心跳,以千兆赫兹(GHz)为单位。它是处理器每秒可以执行的周期数。提高时钟频率似乎是提升性能的显而易见的方法,但它会带来巨大的功耗和热量成本。
  3. ​​每指令周期数(CPICPICPI)​​:这是执行单条指令所需的平均时钟周期数。如果一个处理器的 CPICPICPI 为 222,那么平均来说,它需要两次时钟滴答才能完成一条指令的工作量。

微架构是攻克 CPICPICPI 的艺术。当 ISA 架构师与指令数(III)作斗争,电气工程师挑战频率(fff)的极限时,微架构师的宏伟追求是让每个时钟周期完成尽可能多的有效工作,将平均 CPICPICPI 尽可能地推向接近甚至低于 111。

这立即引发了一场经典的辩论:​​精简指令集计算机(RISC)​​ 与 ​​复杂指令集计算机(CISC)​​。CISC 架构可能提供一条强大而复杂的指令,如 MULTIPLY-AND-ACCUMULATE-FROM-MEMORY,它能完成多条简单指令的工作。这降低了指令数(III),但单条指令可能需要很多周期来执行,导致较高的 CPICPICPI。相比之下,RISC 架构会将该操作分解为一系列简单的 LOAD、LOAD、MULTIPLY、ADD、STORE 指令。这增加了指令数(III),但目标是让每条简单指令都能在一或几个周期内执行完毕,从而实现非常低的平均 CPICPICPI。正如我们将看到的,这个看似简单的权衡具有深远的影响。例如,一个 RISC 程序可能需要执行更多的 LOAD 和 STORE 操作,这会给处理器的内存系统带来巨大压力。哪种方法“更好”不是一个哲学问题,而是一个工程问题,其答案由最终的执行时间决定。

CPU的秘密语言:指令与微操作

处理器是如何执行一条指令,尤其是一条复杂指令的呢?这不是魔法。一条指令不是一个原子命令,而更像一个脚本。处理器的控制单元读取这个脚本,并将其翻译成一系列更原始、更基本的动作,称为​​微操作​​(或 micro-ops)。

想象我们想实现一条“前导零计数”(CLZ)指令。程序员看到的是一条单一命令,但微架构执行的是一个微小的内部程序。一个针对32位CLZ的假设性微程序可能如下所示:

  1. 周期1: 测试寄存器的高16位是否全为零。
  2. 周期2: 如果是,则将一个隐藏计数器加16,并将寄存器左移16位。
  3. 周期3: 测试寄存器(新的)高8位是否全为零。
  4. 周期4: 如果是,则将隐藏计数器加8,并将寄存器左移8位。
  5. ......以此类推。

这揭示了一个“CPU中的CPU”。控制单元本身就是一个小型处理器,它读取架构指令并执行一系列微操作,从而控制真正的硬件:移位器、算术逻辑单元(ALU)和寄存器。这个被称为​​微码​​的概念是关键,它使得在一个更简单、更易于管理的硬件现实之上实现丰富而复杂的ISA成为可能。

流水线:流水线技术及其风险

降低平均 CPICPICPI 最基本的技术是​​流水线技术​​。处理器不是从头到尾执行完一条指令再开始下一条,而是像工厂流水线一样工作。一个经典的流水线可能有五个阶段:

  1. ​​IF(取指)​​:从内存中获取下一条指令。
  2. ​​ID(译码)​​:弄清楚指令的含义。
  3. ​​EX(执行)​​:进行计算。
  4. ​​MEM(内存访问)​​:从内存读取或向内存写入。
  5. ​​WB(写回)​​:将结果写回寄存器。

在理想情况下,每个时钟周期都有一条指令完成,同时一条新指令进入流水线。流水线是满的,处理器实现了每周期一条指令的惊人吞吐量,有效 CPICPICPI 为 111。

当然,世界并非完美。流水线面临着持续的中断,即​​冒险​​。当IF阶段的指令是一条JUMP时会发生什么?序列中的下一条指令就是错误的!这是一个​​控制冒险​​。处理器不能只是停下来等待JUMP指令完全执行完毕。那样的话,流水线会变空,性能将大打折扣。

所以,处理器必须猜测。这就是​​分支预测​​。一个非常简单的策略是静态的“总是预测跳转”规则。对于一个通常会跳回顶部的循环来说,这是一个很好的猜测。但对于检查罕见错误的代码(if (error) { ... }),这个猜测几乎总是错的。即使是最简单的预测器,其准确性也深刻地依赖于它所运行的软件的性质。这一观察推动了数十年对复杂的​​动态分支预测器​​的研究,这些预测器通过学习分支的过去行为来更好地预测未来。

在预测之前,IF阶段甚至如何满足这个贪婪的流水线?如果一个ISA有不同长度的指令(例如,16位和32位),取指就成了一个难题。一次取指可能会抓取一个32位的内存块,其中包含一条16位指令和一条32位指令的前半部分。为了解决这个问题,处理器前端需要一个聪明的缓冲区,一种​​滑动指令窗口​​,它可以容纳几条即将到来的指令,并能在每个周期向流水线提供一条完整的、已解码的指令,无论是否存在这些对齐的麻烦。

幻术的艺术:乱序执行与架构契约

流水线技术是一个很好的开始,但它仍然过于僵化。如果EX阶段的一条指令因等待缓慢的内存读取数据而停滞,其后的整个流水线都会停顿下来。这是一个​​数据冒险​​。

为了克服这一点,现代处理器施展了一项不可思议的魔法:​​乱序执行​​。处理器不是严格按照程序中出现的顺序来处理指令,而是向前看一个即将到来的指令窗口。如果指令#5停滞了,但指令#6和#7已经准备好并且不依赖于#5的结果,处理器就会先执行它们。在内部,执行顺序是为了效率而进行的一场混乱的争夺,由复杂的硬件如​​保留站​​、​​重排序缓冲区(ROB)​​和​​存储缓冲区​​来管理。

这带来了一个深远的挑战:处理器的内部现实是一个狂野、乱序的混乱状态,但它运行的软件却是基于简单、逐条、顺序执行的假设编写的。微架构必须不惜一切代价维持这种假象。这就是​​架构契约​​。有两个原则至关重要。

首先是​​精确异常​​。如果一条指令导致错误——比如除以零——处理器不能在其混乱的执行过程中简单地束手无策。架构契约要求,当向操作系统报告异常时,机器的状态必须是精确的。所有在错误指令之前的指令必须看起来已经完成。错误指令及其之后的所有指令必须看起来从未运行过。为实现这一点,处理器使用 ROB 将结果按原始程序顺序提交回官方的架构状态。当检测到故障时,处理器会清除故障指令及其后任何指令的所有推测性结果,向软件呈现一个干净、一致的状态。

其次是​​内存排序​​。重新排序内存操作的自由度尤其危险。想象一个程序,它先向内存写入数据,然后向另一个内存位置写入一个“标志”,以告知外设(通过直接内存访问,或DMA)数据已准备就绪。如果微架构重新排序了这些操作,设备可能会被标志触发,读取内存,结果得到的是陈旧的数据!。为了管理这一点,存储操作首先被放入一个​​存储缓冲区​​。只有当它们被“排空”到缓存时,它们才对系统的其余部分可见。这个排空过程可能是乱序的。为防止灾难,ISA提供了称为​​内存屏障​​的特殊指令。一道屏障是对微架构的命令:“停止你的花招。在此屏障之后的所有内存操作在它之前的所有内存操作全局可见之前,都不得变得可见。”

这引出了一个关键的区别:​​架构状态​​与​​微架构状态​​。架构状态是“官方”状态:程序被允许看到的主寄存器和内存的内容。微架构状态是其他一切:缓存、内部缓冲区、预测器等的内容。处理器可以在其微架构领域内做任何它想做的事——甚至推测性地将数据从一个禁止访问的内核内存页面加载到一个内部缓冲区——只要它遵守架构契约。当硬件检测到权限违规时,它会在该操作能够将其结果提交到架构寄存器之前就简单地清除它。被禁止的数据只是短暂地被触及,但架构的边界仍然是不可侵犯的。

当魔术被揭穿:推测执行漏洞

几十年来,可见的架构状态与隐藏的微架构状态之间的这种分离,既是高性能设计也是安全性的基石。人们的假设是,只要架构状态被正确维护,微架构的那些小动作就是无害的。

这个假设被推测执行漏洞(如​​Spectre​​)的发现所打破。这些攻击并没有破坏架构契约;它们利用了推测执行在微架构状态中留下的痕迹。

这个戏法是这样运作的,结合了我们讨论过的所有概念:

  1. ​​训练预测器​​:攻击者首先运行代码来重复“训练”分支预测器。对于一个条件分支(if (x size)),他们使用有效的、在边界内的 x 值来调用它,从而训练模式历史表(PHT)来强烈预测分支将被“执行”。
  2. ​​诱发错误预测​​:然后,攻击者使用一个恶意的、越界的 x 值来调用该代码。处理器根据其训练,错误地预测了结果,并推测性地执行了本不应执行的 if 块内的代码。
  3. ​​通过缓存泄露秘密​​:在这个短暂的、推测性的执行窗口内,代码包含一个由攻击者植入的“小工具”(gadget)。这个小工具读取一个秘密值(例如,从内核内存中),并将该秘密用作数组的索引:probe_array[secret_value * 4096]。此内存访问会将 probe_array 的特定行带入处理器的数据缓存中。
  4. ​​清除与恢复​​:几个周期后,处理器意识到其预测是错误的。它尽职地清除了整个推测性执行。没有架构寄存器被改变。没有架构上的安全规则被违反。CPU 遵守了它的契约。
  5. ​​观察旁路信道​​:但这个魔术留下了痕迹。微架构状态已被改变:probe_array 的特定行现在位于缓存中。攻击者现在可以对 probe_array 的每一页进行计时内存访问。几乎瞬时返回的那个访问就是被缓存的那个。通过查看哪一行被缓存,攻击者可以反向推导出索引,从而得到秘密值。

同样的原理可以用来毒化分支目标缓冲(BTB),以将间接函数调用错误地导向恶意的“小工具”。这些漏洞揭示了一个深刻的真理:正是那些实现了数十年惊人性能增长的预测、推测和缓存机制,也创造了微妙、幽灵般的旁路信道。微架构的设计不仅仅是对速度的追求,更是一场在性能、复杂性和安全性之间进行的、在远小于肉眼可见的舞台上表演的、微妙而持续的舞蹈。

应用与跨学科联系

在遍历了现代处理器的复杂内部机制之后,人们可能会倾向于认为微架构是一个专门的,甚至有些深奥的领域,只关心晶体管和逻辑门的排列。但事实远非如此。我们所揭示的原理——流水线、并行性、管理依赖关系、预测未来,以及性能与正确性之间的微妙舞蹈——并不仅限于硅片。它们是关于如何构建复杂、高性能系统的基本思想,并在乍一看似乎相去甚远的领域中回响。这正是我们的故事变得真正激动人心的地方,因为我们看到这些核心概念在意想不到的地方开花结果,揭示了技术设计艺术中一种美妙的统一性。

亲密之舞:编译器与操作系统

与微架构最亲密的邻居是赋予它生命的系统软件:编译器和操作系统。它们不仅仅是硬件的使用者;它们是与硬件持续对话的积极伙伴。

编译器的任务是将人类可读的代码翻译成机器的本地语言。但一个聪明的编译器做得更多;它扮演着战略家的角色,编排指令以最好地适应微架构的优势。考虑一下即时(JIT)编译器的挑战,它在代码运行时进行优化。它收集关于程序行为的信息,这个过程称为配置文件引导的优化(PGO)。它可能会注意到某个特定的分支几乎总是被执行。但它应该如何处理这些信息呢?它必须区分两种类型的配置文件。一种是纯粹的算法性配置文件——它描述了程序的内在逻辑,比如在控制流图中哪些路径被采用。这些信息是机器无关且普遍有用的。另一种则是深度微架构性的,记录了诸如微操作缓存的命中率或分支目标缓冲的行为等信息。这些数据特定于收集它的确切处理器型号。一个设计良好的JIT系统必须将这两种配置文件分开,使用可移植的算法数据进行像内联这样的通用优化,而仅在匹配的机器上使用特定的硬件指标来微调代码布局。

然而,这种合作关系充满了风险。在一种微架构上堪称绝妙的优化,在下一种上可能成为性能灾难。想象一个编译器,根据配置文件,在代码中插入一个“提示”,告诉处理器某个分支极有可能被执行。在带有简单分支预测器的旧处理器上,这可能是一个巨大的胜利。编译器重新排列代码,使得可能的路径无需跳转即可执行,性能飙升。但现在,在更新的处理器上运行同样编译好的程序。这个新芯片有一个更先进的动态分支预测器,它本身就已经做得非常出色了。静态提示被忽略了。更糟糕的是,由提示强制进行的代码重排现在可能导致循环体跨越指令缓存行边界,从而导致新的、代价高昂的指令缓存未命中。这个“优化”适得其反,使程序变得更慢。这说明了软件工程中的一个深刻挑战:性能并非总是可移植的。微架构的演变意味着硬件和软件之间的舞蹈总是在变化。

操作系统(OS)则扮演着硬件的守护者和管理者的角色。它依赖于微架构特性来提供安全性和调度资源。当设计者添加一个新的性能增强指令时,他们必须考虑这种关系。以PREFETCH指令为例,它旨在告诉处理器在实际需要之前就从内存中预取一块数据。如果这被当作一个普通的LOAD来处理,当地址指向一个受保护的内核内存页面,或者一个甚至不在内存中的页面时会发生什么?一个普通的LOAD会触发一个页错误,这是一个硬件异常,会暂停程序并将控制权交给操作系统。如果PREFETCH也这样做,程序员就可以用一个看似无害的提示来使系统崩溃或探测内存布局。正确的设计是一个谨慎的契约:PREFETCH是一个“礼貌的建议”。微架构只有在地址转换已经在TLB中可用且权限有效时才会对其采取行动。如果有任何问题的迹象——TLB未命中或权限违规——该指令就会被简单、无声地忽略。它变成了一个空操作。这种设计在可能的情况下提供性能,但优先保证了由操作系统提供的稳定性和安全性。

意外的映照:数据库与分布式系统

让我们从处理器退后一步,看看一个更大的系统:一个每秒处理数千个事务的数据库。这里的并发和数据一致性问题似乎与流水线冒险相去甚远。果真如此吗?

考虑CPU流水线中的三种经典数据冒险:

  • ​​写后读(RAW):​​ 一条指令需要前一条指令的结果,但该结果尚未写入寄存器。
  • ​​读后写(WAR):​​ 一条指令想要覆盖一个前一条指令仍需读取的寄存器。
  • ​​写后写(WAW):​​ 两条指令都想写入同一个寄存器,最终结果必须是逻辑上后一条指令的结果。

现在,让我们用数据库事务的语言来重新表述这些问题。“脏读”发生在事务 T2T_2T2​ 读取了另一个尚未提交的事务 T1T_1T1​ 所写的数据。如果 T1T_1T1​ 中止, T2T_2T2​ 就基于虚幻的数据进行了操作。这恰恰是一个写后读(RAW)冲突。“不可重复读”发生于 T1T_1T1​ 读取一个值,然后 T2T_2T2​ 覆盖了它,当 T1T_1T1​ 再次读取时,值已经改变。这是一个读后写(WAR)冲突。“丢失更新”发生于 T1T_1T1​ 和 T2T_2T2​ 都写入同一项,第二个写操作覆盖了第一个。这是一个写后写(WAW)冲突。

这种类比不仅是表面的;解决方案也是类似的!在超标量处理器中,我们使用​​寄存器重命名​​来解决WAR冒险,硬件为写指令提供一个新的、不可见的物理寄存器,使其能够在不干扰读指令的情况下继续进行。在数据库中,等效的解决方案是​​多版本并发控制(MVCC)​​。当写入者 T2T_2T2​ 想要修改读取者 T1T_1T1​ 正在使用的项时,数据库不会覆盖它,而是创建该项的一个新版本,让 T1T_1T1​ 在旧的、一致的快照上完成其工作。其核心思想——创建一个新副本来打破依赖关系——是完全相同的,这是一个惊人的例子,展示了相同的架构模式在截然不同的规模上出现。

这种在并发面前保持正确性的主题甚至延伸到更奇特的系统中。在区块链网络中,成千上万的计算机(验证者)必须执行智能合约,并就精确的最终状态达成一致,精确到最后一位。实现这种确定性执行是一项巨大的挑战。预先(AOT)编译器可以通过将合约编译为本地机器码来显著加速合约执行。但这打开了非确定性的潘多拉魔盒。一个验证者的CPU可能有融合乘加(FMA)指令,而另一个则没有,导致浮点结果出现微小差异。不同的操作系统提供不同的系统调用。甚至为“gas”计量计算CPU周期也是不可能的,因为不同处理器之间的周期数差异巨大。解决方案是应用微架构思维:构建一个沙箱。AOT编译器必须插入代码来精确模拟指定的行为(例如,固定的整数环绕),禁止所有非确定性操作,如原生浮点运算和操作系统调用,并根据原始的、平台无关的字节码而不是生成的本地指令来计算gas。理解底层硬件的潜在陷阱对于构建这些全局一致的系统至关重要。

纳秒必争:专用硬件的世界

在通用计算的世界里,我们力求在性能、成本和功耗之间取得平衡。但在某些领域,一个指标至高无上:延迟。在高频交易(HFT)中,一微秒的优势可能价值数百万美元。在这里,微架构不仅仅是一个细节;它是整个游戏。

交易员使用现场可编程门阵列(FPGA)来为订单匹配等任务构建定制硬件。设计这样一个系统纯粹是一项微架构设计的实践。想象一下构建一个处理传入订单的匹配引擎。整个过程是一条依赖链:(1)从片上块RAM(BRAM)读取价格水平,(2)使用该数据从另一个BRAM读取特定的订单节点,(3)执行匹配计算,(4)写回更新后的订单,(5)写回更新后的价格水平。每一步都需要离散数量的时钟周期,并且BRAM读取自身也有延迟。计算单个订单的最坏情况、端到端延迟,需要你像微架构师一样思考,一丝不苟地追踪通过流水线的数据依赖关系,以计算每一个时钟周期。

这种对性能的痴迷在科学计算中也至关重要,但通常带有一个额外的转折:准确性。一个单一的微架构特性,即​​融合乘加(FMA)​​指令,完美地展示了这一点。一个FMA操作计算 a×b+ca \times b + ca×b+c 时只在最后进行一次舍入,而不是在乘法后舍入一次,加法后再舍入一次。这有两个深远的好处。首先,它更快,将两个指令合并为一个。但更重要的是,它更准确得多。在许多科学计算中,你可能会遇到“灾难性抵消”,即你减去两个几乎相等的数。在非融合操作中的中间舍入可能会抹去你获得准确结果所需的非常重要的数字。通过在加法前保留 a×ba \times ba×b 的全精度乘积,FMA避免了这种情况,从而得出一个更可信赖的答案。对于运行复杂模拟的科学家来说,这不仅仅是一个微小的改进;它可能是正确发现与数值伪影之间的区别。

前沿:驾驭新技术

支撑微架构的抽象和资源管理的基本原理如此强大,以至于它们甚至在我们进入全新的计算范式时也能指导我们。考虑将​​量子协处理器​​集成到经典计算机系统中的挑战。这个新设备奇特而脆弱。它的量子态是脆弱的,并且它基于与经典逻辑格格不入的原理运行。我们如何构建一个系统,允许多个程序安全高效地共享这个奇特的资源?

答案是回归到经典的、分层的计算机系统模型。我们定义一个稳定的、抽象的​​指令集架构(ISA)​​,其中包含一些如“分配量子比特”或“应用量子门”之类的 q-ops,从而隐藏了杂乱的物理学。​​操作系统​​作为最终的所有者,管理时间分片,并在不同进程之间分配有限的物理量子比特池。一个内核模式的​​设备驱动程序​​将抽象的 q-ops 翻译成量子硬件能理解的具体脉冲序列,并配置IOMMU以确保该设备只能将其测量结果写入已被明确授予访问权限的内存位置,从而防止安全漏洞。最后,一个​​用户空间运行时​​提供高级编程语言,并将量子算法编译成 q-ops。这种分层设计,及其对关注点的仔细分离,正是我们几十年来管理经典硬件的方式。它表明,我们的架构原则足够稳健,足以帮助我们驾驭量子世界。

从与编译器的复杂舞蹈,到与数据库的惊人相似之处,从金融界争分夺秒的设计,到区块链中对确定性的追求,再到迈向量子集成的第一步,微架构的影响无处不在。这些概念不仅仅是关于构建更好的CPU;它们是一个镜头,通过它我们可以理解、设计和掌握各种复杂的科技系统。它们为处理并发性、性能和正确性这些永恒的挑战提供了一种通用语言和一套统一的原则,无论这些挑战出现在何处。