try ai
科普
编辑
分享
反馈
  • 暗硅

暗硅

SciencePedia玻尔百科
核心要点
  • 暗硅指的是计算机芯片中为了维持在热设计功耗(TDP)限制内而必须有意保持断电的部分。
  • 该问题是21世纪中期左右登纳德缩放定律终结的直接后果,当时晶体管的工作电压已无法再随尺寸缩小而降低。
  • 为应对暗硅问题,现代计算机体系结构已从单一高速核心转向包含大量小型节能核心和专用加速器的异构系统。
  • 功耗门控和近阈值计算(NTC)等技术对于动态管理固定的功耗预算以及最大化每瓦性能至关重要。
  • 暗硅的强制闲置可以通过轮换活动核心来策略性地提高芯片可靠性,从而管理热量并减缓电迁移等物理退化过程。

引言

在计算技术势不可挡的进步中,出现了一个奇怪的悖论:我们现在可以制造出拥有数十亿晶体管的芯片,却无法承担将它们全部同时开启的功耗。这一现象被称为“暗硅”,它代表了计算机体系结构中的一场根本性危机,标志着摩尔定律和登纳德缩放定律所承诺的“免费午餐”时代的终结。它迫使我们面对一个关键问题:如果原始晶体管数量不再是性能的唯一驱动力,那么前进的道路在何方?本文通过剖析其背后的物理学原理并探索由此产生的创新解决方案,来应对这一挑战。

这段探索之旅分为两部分。首先,在“原理与机制”部分,我们将深入探讨核心概念,从产生“功耗墙”的简单热预算物理学入手。接着,我们将探索登纳德缩放定律的历史——这个曾经的神奇配方让我们在相同功耗下获得了指数级增长的芯片性能——并精确定位导致这个黄金时代戛然而止的物理失效点。在此之后,“应用与跨学科联系”一章将从问题转向解决方案。我们将审视暗硅这一限制如何点燃了芯片设计的复兴之火,催生了异构架构、复杂的功耗管理技术,乃至对芯片可靠性和寿命的全新视角。

原理与机制

要真正理解“暗硅”的挑战,我们不能只谈论计算机,还必须谈论热量。从本质上讲,现代计算机处理器是一种极其复杂的设备,用于将电能转化为信息。但就像任何能量转换一样,它并非完美高效。大量的电能不可避免地会变成热量,而这个简单却无法逃避的物理事实,正是我们整个故事的开端。

看不见的热量:一个简单的热预算

想象一下,你电脑的处理器是一个微小而强大的灯泡。它做的工作越多,发出的光就越亮——也变得越热。如果它变得太热,其内部精密的结构就会受损,最终导致失灵。为防止这种情况,每个处理器都连接到一个散热系统——由均热板、带鳍片的散热器和风扇组合而成。这个系统就像一个通道,让热量从芯片散发到周围的空气中。

这个通道的效率可以用一个数字来描述:​​热阻​​,通常表示为 RthR_{th}Rth​。它告诉我们,芯片每产生一瓦特的热量,其温度会上升多少度。这导出了一个异常简单的关系,一种热量预算。芯片核心的温度(结温,TjT_jTj​)将是室温(环境温度,TambT_{amb}Tamb​)加上功耗引起温升的总和:

Tj=Tamb+P⋅RthT_j = T_{amb} + P \cdot R_{th}Tj​=Tamb​+P⋅Rth​

芯片制造商会规定一个最高安全工作温度,TmaxT_{max}Tmax​。一个典型值可能在 95∘C95^\circ\text{C}95∘C 左右。如果环境温度是温暖的 35∘C35^\circ\text{C}35∘C,且散热系统的热阻为 Rth=0.28 K/WR_{th} = 0.28 \text{ K/W}Rth​=0.28 K/W(意味着每瓦热量使温度上升 0.28∘C0.28^\circ\text{C}0.28∘C),我们就可以计算出芯片在过热前可以持续耗散的最大功率。这通常被称为​​热设计功耗 (TDP)​​。

Pmax=Tmax−TambRth=95∘C−35∘C0.28 K/W=60 K0.28 K/W≈214 WP_{max} = \frac{T_{max} - T_{amb}}{R_{th}} = \frac{95^\circ\text{C} - 35^\circ\text{C}}{0.28 \text{ K/W}} = \frac{60 \text{ K}}{0.28 \text{ K/W}} \approx 214 \text{ W}Pmax​=Rth​Tmax​−Tamb​​=0.28 K/W95∘C−35∘C​=0.28 K/W60 K​≈214 W

这 214 W214 \text{ W}214 W 就是我们的功耗预算,是这个系统的​​功耗墙​​。现在,如果我们设计了一款拥有数十亿晶体管的宏伟芯片,而为了运行一款要求苛刻的视频游戏或科学模拟,所有这些晶体管都需要被激活,总共需要,比如说,310 W310 \text{ W}310 W 的功率,会发生什么呢?。答案简单而残酷:你办不到。散热系统无法足够快地带走热量,芯片会迅速把自己烤熟。

为了保持在我们的热预算之内,我们被迫做一些看起来毫无道理的事情:我们必须有意地让这块强大芯片的一部分保持关闭状态。如果我们只能耗散 214 W214 \text{ W}214 W 的热量,而潜在功耗是 310 W310 \text{ W}310 W,那么我们只能使用芯片潜能的 214310≈69%\frac{214}{310} \approx 69\%310214​≈69%。剩下的 31%31\%31% 必须保持非活动、非供电状态——它必须保持黑暗。这就是​​暗硅​​的核心概念。

辉煌的过去:“免费午餐”定律

几十年来,这堵“功耗墙”一直是一个遥远的顾虑,一个设计师们似乎从未触及的理论极限。从20世纪70年代到21世纪初,计算机体系结构享受了一个黄金时代,一个由一套被称为​​登纳德缩放定律​​的美妙原则所支配的“免费午餐”时期。

1974年,Robert Dennard 和他在IBM的同事们描述了一种缩小晶体管的神奇配方。其思想是将晶体管的所有尺寸——长度、宽度和绝缘层厚度——按一个共同的因子(我们称之为 sss,s>1s > 1s>1)进行缩减。如果将线性尺寸缩小 1/s1/s1/s,晶体管的面积就会缩小 1/s21/s^21/s2。这意味着在每一代新技术中,你都可以在相同的物理芯片面积上封装 s2s^2s2 倍的晶体管。这就是​​摩尔定律​​背后的引擎,即著名的晶体管数量按固定节奏翻倍的观察。

但登纳德缩放定律真正的魔力在于:当你缩小晶体管尺寸时,你也可以将其工作电压 VVV 按相同的因子 1/s1/s1/s 降低。让我们看看这对功耗有什么影响。芯片中的主要功耗来源是​​动态功耗​​——将晶体管从“0”切换到“1”再切换回来所需的能量。这个功耗的公式非常简洁:

Pdyn=αCV2fP_{dyn} = \alpha C V^2 fPdyn​=αCV2f

在这里,α\alphaα 是活动因子(晶体管切换的频率),CCC 是其电容(衡量其存储电荷能力的指标),VVV 是电压,fff 是时钟频率。让我们看看缩放如何影响每一项:

  • ​​电容 (CCC)​​:更小的晶体管有更小的电容,按 1/s1/s1/s 缩减。
  • ​​电压 (VVV)​​:电压按 1/s1/s1/s 缩减。由于功耗与 V2V^2V2 成正比,这一项贡献了巨大的 1/s21/s^21/s2 的缩减!
  • ​​频率 (fff)​​:更小的晶体管速度更快,允许时钟频率按因子 sss 提升。

让我们把它们整合起来。一个单个缩放后晶体管的动态功耗变化因子为 (1/s)⋅(1/s)2⋅s=1/s2(1/s) \cdot (1/s)^2 \cdot s = 1/s^2(1/s)⋅(1/s)2⋅s=1/s2。所以,在每一代新技术中,每个晶体管都变得更加节能。而且由于我们可以在相同的芯片面积上封装 s2s^2s2 倍的晶体管,整个芯片的总功耗(s2s^2s2 个晶体管 ×\times× 每个晶体管 1/s21/s^21/s2 的功耗)几乎保持不变!我们用相同的总功耗获得了更多、运行速度更快的晶体管。这简直是终极的免费午餐。

一个时代的终结:电压墙与功耗悬崖

大约在21世纪中期,这个美丽的缩放定律撞上了一堵坚硬的物理之墙。问题出在电压上。随着电压被缩减至1伏特及以下,曾经可以忽略不计的量子力学效应变得至关重要。晶体管是一个开关;它在“关闭”时应该能可靠地阻断电流。但随着绝缘层变得只有几个原子那么厚,电压下降,电子开始“隧穿”过“关闭”的栅极,导致漏电。为了在“开启”和“关闭”状态之间保持清晰的界限,设计师们无法再继续降低电压。登纳德配方中的电压缩放部分不得不停止。

这一个变化带来了灾难性的后果。让我们重新审视我们的缩放定律,但这一次,保持电压 VVV 恒定。假设我们从45纳米技术节点迁移到7纳米节点。缩放因子 sss 是 457≈6.43\frac{45}{7} \approx 6.43745​≈6.43。

  • 每单位面积的晶体管数量仍然增加 s2≈41.3s^2 \approx 41.3s2≈41.3 倍。
  • 每个晶体管的电容仍然减少 1/s≈1/6.431/s \approx 1/6.431/s≈1/6.43。
  • 让我们暂时假设频率保持不变,以便单独分析影响。
  • ​​但现在,电压 VVV 保持恒定!​​

现在,每个晶体管的功耗按 (1/s)⋅(1)2⋅1=1/s(1/s) \cdot (1)^2 \cdot 1 = 1/s(1/s)⋅(1)2⋅1=1/s 的比例缩放。如果我们试图打开所有晶体管,芯片的总功耗将是新的晶体管数量(s2s^2s2 倍)乘以新的每个晶体管的功耗(旧功耗的 1/s1/s1/s 倍)。总功耗按 s2⋅(1/s)=ss^2 \cdot (1/s) = ss2⋅(1/s)=s 的比例增加。

对于我们从45纳米到7纳米的飞跃,这意味着在相同面积下,芯片的潜在功耗增加了约 6.436.436.43 倍。我们的热预算没有改变,但芯片想要消耗的功率却成倍增长。协调这一矛盾的唯一方法是关闭芯片的大部分区域。我们能保持活动的最大部分现在只有 1/s1/s1/s,即大约 15.6%15.6\%15.6%。芯片面积中剩下的 84.4%84.4\%84.4% 必须是暗的。电压缩放的终结是暗硅危机的直接原因。

现代芯片的暗硅现实

这不仅仅是一个理论练习。让我们看一个真实的现代处理器的数据。考虑一个拥有100亿晶体管(Ntot=1010N_{tot} = 10^{10}Ntot​=1010)的芯片,工作电压为 V=0.8 VV = 0.8 \text{ V}V=0.8 V,频率为 f=3 GHzf = 3 \text{ GHz}f=3 GHz。同时切换所有这些晶体管所需的功率将是:

Pall_on=NtotCeffV2fP_{all\_on} = N_{tot} C_{eff} V^2 fPall_on​=Ntot​Ceff​V2f

使用一个典型的每个晶体管的有效电容值,Ceff≈1×10−15 FC_{eff} \approx 1 \times 10^{-15} \text{ F}Ceff​≈1×10−15 F,这个假设的功率将是令人难以置信的 19,200 W19,200 \text{ W}19,200 W。这比整个厨房里所有电器的总功率还要大!然而,我们的芯片的热设计功耗可能只有 200 W200 \text{ W}200 W。

即使我们考虑了 30 W30 \text{ W}30 W 的基准“漏电”功耗(稍后会详细介绍),我们也只剩下 170 W170 \text{ W}170 W 用于动态切换。我们实际能负担得起在任何时刻切换的晶体管比例,αmax\alpha_{max}αmax​,是:

αmax=170 W19,200 W≈0.00885\alpha_{max} = \frac{170 \text{ W}}{19,200 \text{ W}} \approx 0.00885αmax​=19,200 W170 W​≈0.00885

这个结果令人震惊。这意味着我们只有足够的功率以全速运行大约 0.885%0.885\%0.885% 的晶体管。在任何给定的瞬间,超过 99%99\%99% 的芯片必须保持暗态。每花费硅面积和制造成本换来的一千个晶体管中,我们只能用得起九个。这就是暗硅的严酷现实。从另一个角度看,一块200平方毫米的硅片可能一次只能为其中50平方毫米的区域供电,剩下150平方毫米——即总面积的75%——处于暗态。

狡猾的窃贼:漏电功耗

好像这还不够糟糕,我们的故事里还有另一个反派:​​静态漏电功耗​​。动态功耗是做功的成本。漏电功耗是仅仅存在的成本。一个晶体管,即使在“关闭”状态,也不是一个完美的绝缘体。总有微量的电流会“泄漏”过去。对于一个晶体管来说,这可以忽略不计。但对于数十亿个晶体管来说,这就像积少成多,最终造成致命影响。

这种漏电流不是恒定的;它对温度极为敏感。随着芯片变热,其晶体管泄漏得更多,并且这种关系是指数级的。这会产生一个危险的正反馈循环:

  1. 芯片工作,产生热量并消耗功率(动态功耗 + 漏电功耗)。
  2. 芯片温度上升。
  3. 更高的温度导致漏电流指数级增加。
  4. 增加的漏电消耗更多功率,产生更多热量。
  5. 这个循环重复,可能导致热失控。

这个问题在什么时候会变得严重?我们可以计算出漏电功耗与有用计算功耗相等的温度点。对于一个典型的核心,这个交叉点可能在 351 K351 \text{ K}351 K 左右,也就是大约 78∘C78^\circ\text{C}78∘C——对于一个辛勤工作的处理器来说,这是一个完全正常的工作温度。

这解释了为什么暗硅必须是真正的暗。在过去,芯片的闲置部分可能会被​​时钟门控​​——时钟信号被停止,从而停止其活动并消除其动态功耗。但它仍然通电,仍在漏电。在一个由漏电主导的现代世界里,这已不再足够。闲置的核心,即使什么也不做,也会消耗可观的功率并加剧热量问题。唯一有效的解决方案是​​功耗门控​​:完全切断电源电压。暗硅不仅仅是在休眠;它处于一种假死状态。

架构师的困境

暗硅问题从根本上改变了计算机架构师的工作。挑战不再仅仅是如何构建最快的组件,而是在庞大的可用晶体管海洋中如何管理固定的功耗预算。这已成为一场“功耗俄罗斯方块”的游戏。

现代芯片是异构的​​片上系统(SoCs)​​,包含不同类型的专用处理模块:用于通用任务的CPU核心、用于图形的GPU阵列、用于信号处理的DSP等等。每个模块都有其自身的功耗和性能特性。架构师的工作是为给定的工作负载协调哪些模块被“点亮”。运行游戏可能会点亮GPU和几个CPU核心,而芯片的其余部分则保持暗态。处理音频流可能会转而点亮DSP。活动组合的总功耗必须始终低于芯片的TDP。

这导致了有趣而困难的设计权衡。考虑单个CPU核心的设计。提高其性能的一种方法是加深其流水线——将每条指令分解为更多、更小的阶段。这允许更高的时钟频率。然而,更深的流水线需要更复杂且功耗更高的时钟分配网络。事实上,时钟功耗的增长速度可能超过其带来的性能提升。

一位架构师可能会发现,13级的流水线深度能提供最佳的每瓦性能(能效)。但为了获得绝对最大的原始性能,他们可能需要将深度推至21级。这个选择的代价是高昂的。那个超高性能的21级核心可能会消耗掉芯片总功耗预算的如此之大一部分,以至于没有剩余功率来开启GPU或其他加速器。通过追求单核速度,架构师可能无意中在别处制造了暗硅。这就是架构师的困境:每一个设计选择现在都是与功耗和热量这些不容妥协的法则进行的谈判。

应用与跨学科联系

在深入探讨了登纳德缩放定律终结和“暗硅”崛起的背后原理之后,我们可能会感到一丝不祥。如果我们再也无法为我们能制造出的所有晶体管供电,计算的进步是否正在停滞?答案是,奇妙的是,并非如此。事实上,正是这一限制点燃了计算机体系结构的复兴之火,迫使我们从蛮力转向优雅的效率。它促使我们更巧妙地思考如何设计、管理乃至从哲学层面看待计算。本章将带领我们穿越这片新大陆,探索在暗硅阴影下蓬勃发展的巧妙应用和惊人的跨学科联系。

伟大的架构转变:从速度恶魔到高效集体

几十年来,通往更快计算机的道路一直很直接:构建一个比上一个更复杂、时钟速度更高的单片式处理器核心。那是“速度恶魔”核心的时代。暗硅终结了这个时代。一个巨大而复杂的核心同样也是一个巨大的功耗怪兽。正如我们在对基本功耗上限的分析中所见,当一个拥有许多核心的芯片无法同时为所有核心供电时,就达到了一个临界点。

那么,替代方案是什么呢?想象一下,你经营一家有固定每日燃料预算的快递服务。你会选择运营一辆耗油的F1赛车,还是一个由众多节能踏板车组成的大型车队?对于向多地运送多个包裹而言,车队显然更优。这正是芯片设计师现在面临的选择。与其用一个大的乱序执行核心,为什么不用相同的硅面积来构建许多更小、更简单、更节能的核心呢?虽然每个简单的核心单独来看性能较弱,但它们在处理并行任务时的集体吞吐量可以非常巨大,而且至关重要的是,它们能以远高于前者的能效实现这一点。这使得在相同的功耗预算下,芯片的更大部分可以被“点亮”,从而显著减少暗硅的数量,并提升整体的每瓦性能。

这种“多弱”胜过“少强”的思想可以更进一步。如果除了我们的踏板车队,我们还增加一些专用车辆——用于运送生鲜的冷藏车,用于运送贵重物品的装甲车,那会怎么样?这就是​​异构计算​​的概念,它是暗硅时代架构王位的真正继承者。设计师们不再仅仅用通用核心填充芯片,而是集成了一系列​​加速器​​:这些是为以惊人效率执行单一任务而设计的专用硬件模块。用于图形的加速器(GPU)、用于神经网络的加速器(NNA)或用于信号处理的加速器,可以用比通用核心少几个数量级的能量来完成其指定任务。

通过将工作负载中可加速的40%部分卸载到专用单元,一个拥有简单核心和加速器的异构设计,可以在保持功耗预算的同时,完全超越一个只有少数强大通用核心的设计,并且几乎消除了暗硅。然而,这引入了一个全新的、引人入胜的挑战:一个调度问题。面对众多的可用单元和严格的功耗预算,芯片的运行时系统或操作系统必须扮演一个智能调度员的角色,决定激活哪个加速器和核心的组合,以便为给定的应用程序实现最高效率。目标不再仅仅是最大化原始吞吐量,而是最大化每焦耳的吞吐量。

驯服功耗猛兽:深入硅片内部

向异构系统的架构转变是对暗硅的宏大战略性回应。但这场战斗也在芯片本身的电路和微架构深处,以更精细的粒度进行着。

其中最激进的策略之一是​​近阈值计算(NTC)​​。晶体管,就像电灯开关一样,有一个阈值电压(VthV_{th}Vth​),低于此电压它们就无法可靠地开启。多年来,处理器都在远高于此阈值的电压下运行以获得高速。NTC将这一理念颠倒过来:它让芯片在仅略高于VthV_{th}Vth​的电源电压VVV下工作。由于动态功耗与V2V^2V2和频率成正比,功耗节省是天文数字级的。然而,天下没有免费的午餐。在如此接近阈值的电压下运行会显著减慢电路速度。

这带来了一系列新的权衡。对于有严格性能期限或服务水平协议(SLA)的系统,在NTC模式下运行可能无法满足要求。设计师必须仔细分析每个单元在NTC电压下的性能,并决定哪些单元必须保持活动以满足关键任务,哪些可以保持暗态以维持在大幅降低的功耗预算之内。在一个真实场景中,为了在2.8W的功耗上限下满足CPU和神经网络的性能目标,一个强大的GPU必须被完全功耗门控,这是NTC权衡取舍的一个鲜明例证。

虽然NTC是针对一个电压域的“全局”设置,但功耗也可以在微秒级的时间尺度上逐个模块进行管理。这被称为​​功耗门控​​。想象一个单独的处理器核心。并非其所有部分都时刻需要。如果程序没有进行任何浮点数学运算,浮点运算单元(FPU)就会闲置。在过去,“闲置”仍然意味着它通着电并泄漏电流。有了功耗门控,一个“电源开关”晶体管可以完全切断对FPU的供电,使其真正变暗。

当然,拨动这个开关会消耗一点能量,并且重新给单元供电也需要一个延迟。这导出了一个优美而简单的计算:盈亏平衡时间。只有当处于低功耗状态所节省的能量大于进入和退出该状态的能量成本时,对一个单元进行功耗门控才值得。对于一个典型的功能单元,这个盈亏平衡时间可能在几毫秒的量级。这种动态、细粒度的控制使得芯片能够不断适应,在效率的闪烁舞蹈中使其部分区域变暗又变亮。

扩展战场:超越纯计算

对抗功耗墙的战斗已延伸到处理器核心之外。现代计算机中最大的能源消耗之一不是计算,而是​​数据移动​​。“内存墙”不仅仅是获取数据的延迟问题,也关乎这样做的能量消耗。将一字节数据从片外DRAM移动到处理器核心,可能比对其进行一次简单的算术运算消耗多出数百倍的能量。

这一洞见为功耗战争开辟了新的战线。如果我们无法高效地将数据带到计算单元,那么就让我们将计算带到数据那里。这就是​​近内存计算​​背后的思想。通过将小型、专用的加速器放置在内存芯片旁边甚至内部,我们可以在本地处理大量数据,避免了跨越芯片和到外部内存总线的昂贵旅程。

功耗节省可能是巨大的。仅通过使用能效高10倍的近内存加速器来服务60%的数据请求,所释放出的功耗预算就相当可观。这个“功耗余量”随后可以用来点亮更多的主要计算单元,从而提高整体系统吞吐量。在一个场景中,这一策略允许在100W的功耗上限下额外激活12个计算核心——通过更智能地处理数据移动,实现了30%的计算能力提升。

这种整体观甚至向上延伸到软件层面。如果程序可以与硬件“对话”,并向其提供有关其行为的提示,会怎么样?这就是​​ISA级功耗提示​​背后的思想。指令集架构(ISA)可以扩展出特殊的指令,程序可以用它们来告知微架构其即将到来的需求。例如,如果软件知道它将进入一个分支非常可预测的代码阶段,它可以发出一个提示,功耗门控复杂、耗能的动态分支预测器,并回退到一个更简单、低功耗的静态预测器。或者,如果它正在处理非推测性的数据流,它可以提示关闭重排序缓冲区和其他推测执行资源的大部分。这种软硬件协作的方法允许进行更智能的功耗管理,为特定工作负载找到性能损失和功耗节省之间的最佳权衡。

困境中的一丝希望:跨学科联系

或许暗硅时代最深远的影响是,它迫使我们不再仅仅将芯片视为一个抽象的逻辑机器,而是一个物理的、充满能量的、甚至是有寿命的系统。这一视角揭示了与其他科学学科之间迷人的联系。其中最引人注目的是暗硅与​​可靠性​​之间的联系。

晶体管是一个会随着时间磨损的物理对象。像​​电迁移​​这样的机制——由电子流引起的互连线中金属原子的逐渐移动——最终可能导致开路或短路,从而摧毁芯片。这种损坏的速率高度依赖于温度和电流密度,正如材料科学中的布莱克方程所描述的那样。

这里有一个优美而反直觉的洞见:暗硅的强制闲置可以转变为一种工具,用以显著延长芯片的寿命。通过轮换哪些核心处于活动状态,哪些处于“休息”和暗态,调度器可以确保芯片的任何单个部分都不会持续承受高压力条件。在其“暗”阶段,核心会冷却下来,电流的缺失会停止电迁移过程。随时间推移的平均损坏率显著降低。一项定量分析表明,由于在闲置期间得到冷却,一个仅在60%的时间内活动的核心,可能只承受其在连续操作下会遭受的12%的电迁移损害。暗硅,这个难题,反而成为了解决芯片寿命问题的关键部分。

暗硅问题并非死路一条,而是一个指向新方向的路标。它关上了对时钟速度简单追求的大门,却为计算机体系结构、电路设计、软件系统乃至材料科学的创新打开了上百扇新的大门。未来的征途不再是让事物变得更快,而是让它们变得更智能。暗硅的挑战迫使我们追求一种更深刻、更整体、最终也更优雅的计算形式,其中每瓦性能才是衡量进步的真正标准。