
几个世纪以来,我们对世界的视觉理解一直局限于二维表面——绘画、照片和阴影。虽然这些向我们展示了外部,但却隐藏了内部错综复杂的结构。如果我们不仅能捕捉物体的表面,还能探索其整个体积呢?这正是体积数据的核心承诺,它是一种以真正的三维形式来表示我们世界的革命性方法。本文旨在探讨我们如何创建、解释和利用这些丰富的数字对象这一根本问题。在接下来的章节中,您将踏上进入这一新维度的旅程。“原理与机制”一章将揭开核心概念的神秘面纱,解释体积数据是如何通过断层扫描等技术从真实世界中采集,或是如何利用物理模拟从零开始构建的。该章还将深入探讨其固有的缺陷和强大的可视化方法。随后,“应用与跨学科联系”一章将展示体积数据在不同领域带来的变革性影响,从窥探人脑内部、为生物机器建模,到利用人工智能处理海量数据集,甚至探索信息存储的终极物理极限。
在人类历史的大部分时间里,我们的视觉记录都是平面的。一幅画、一幅素描、一张照片——全都是我们将三维世界投影到二维表面上的结果。它们向我们展示了事物的表面,但内部仍然是一个谜。如果我们不仅能捕捉表面,还能捕捉物体的整个体积呢?如果我们能持有一个人脑、一颗恒星或一个蛋白质的数字表示,并能够窥视其内部,从任何角度将其切开,并测量其体积内任何一点的属性呢?这正是体积数据所带来的革命性前景。
从本质上讲,体积数据只是一种描述三维空间内每一点上某种物理量(无论是密度、温度还是荧光强度)的方法。可以这样想:一张二维数字图像是一个由像素(“图像元素”)组成的网格。而体积数据则是一个由体素(“体积元素”)组成的三维网格。每个体素都是一个微小的长方体,包含一个数字,代表该微小空间区域的物理属性。在计算机内存中,这通常以一个巨大的三维数组形式存储,一个准备好被探索的数字立方体。
但是,我们如何构建这样一个宏伟的数字对象呢?从物理世界(或思想世界)到体积数据集的旅程通常遵循两条主要路径之一:通过对现实进行切片直接采集,或根据物理定律进行计算构建。
构建三维体最直观的方法是逐片构建,就像制作一条面包一样。例如,在共聚焦显微镜中,科学家们正是这样做的。显微镜将激光聚焦在生物样本(如用荧光蛋白标记的细胞)内一个极薄的平面上,并记录下该平面的二维图像。然后,显微镜的焦点被轻微移动,比如向上或向下移动0.2微米,再拍摄另一张照片。这个过程不断重复,形成一个名为Z-stack的二维图像堆栈。当把所有这些“书页”放在一起时,就得到了一本“书”——一个完整的细胞三维体积。
一种更精妙且极其强大的方法是断层扫描(tomography),这个词源于希腊语tomos(“切片”)和graphein(“书写”)。想象一下,你有一个半透明的物体,比如一个内部有复杂云状图案的玻璃雕塑。你不能直接把它切开。但你可以从许多不同的角度拍摄它的阴影。通过观察阴影如何随着你在物体周围移动而变化,你或许能够推断出内部云状图案的三维形状。
这就是计算机断层扫描(CT)和低温电子断层扫描(Cryo-ET)等技术背后的原理。在Cryo-ET中,一个快速冷冻的生物样本被放置在电子显微镜中并进行物理倾斜,在每个角度下捕捉一张二维投影图像。这一系列图像,即倾斜序列,包含了重建三维结构所需的所有信息。将这些二维投影转化为三维体积的魔力,源于一个优美的数学理论,即傅里叶切片定理。该定理指出,一个投影图像的二维傅里叶变换在数学上等同于原始物体三维傅里叶变换的一个中心切片。通过在多个角度收集投影,我们就收集了物体三维傅里叶变换的许多切片。一旦我们有足够的切片来填充三维傅里叶空间,就可以执行逆变换来揭示三维物体本身。我们通过“读取”其投影来“书写”其体积。
通往体积数据的第二条路径并非始于物理对象,而是始于自然法则本身。考虑一个过于极端、遥远或巨大而无法直接观测的现象,比如两个黑洞的灾难性合并。我们无法在实验室中重现这一事件,但我们可以利用物理定律来模拟它。
这场宇宙大戏的舞台是四维时空,由Albert Einstein的广义相对论描述。他的场方程极其复杂——是一组耦合的非线性偏微分方程。直接在四维空间中求解它们在计算上是不可行的。一个绝妙的见解是重新构想这个问题。物理学家们没有将时空视为一个静态的四维“块”,而是进行了所谓的3+1分解。他们在概念上将四维时空“切片”成一系列三维空间体积,每个体积代表宇宙在某一特定瞬间的状态。然后,他们利用相对论方程来计算一个三维切片如何演化到下一个。
这将问题转化为一个适定的初值问题:给定宇宙在一个三维切片上的状态,计算下一个切片。这就像制作一部电影,其中每一帧都是一个完整的时空几何三维体积。这一随时间演化的三维体积堆栈,是一种宏伟的体积数据形式,它并非源于测量,而是源于纯粹的数学和物理定律。
无论我们是从显微镜获取数据,还是在超级计算机上进行模拟,我们的视图都绝非完美。测量和重建的过程不可避免地会引入失真和伪影,理解这些是正确解读数据的关键。
断层扫描中最基本的一个挑战是缺失楔形。在实际实验中,通常不可能将样本在完整的180度范围内倾斜以获得完整的数据集。样本支架本身会造成阻碍。这意味着存在一个从未被测量的投影角度“楔形区”。在傅里叶空间中,这对应于一个我们没有任何信息的楔形区域。其在重建的三维图像中产生的后果是一种失真:物体在对应于缺失视图的方向(通常是Z轴)上显得被拉伸和模糊。一个完美的球形病毒颗粒可能会被重建为一个蛋形斑点。分辨率不再是所有方向都相同;它变成了各向异性的。
现代CT扫描仪也存在类似的问题。为了追求速度,许多扫描仪使用宽锥形X射线束和单一的圆形源路径。这种方法速度极快,但对于物体中任何不位于中心旋转平面的部分,所收集的数据在数学上是不完整的。精确三维重建的一个基本几何要求,即Tuy-Smith条件,被违反了,因为圆形路径并不能与穿过物体的每一个可能的平面相交,。这会导致锥形束伪影,从而降低图像质量。解决方案要么是使用更复杂的源路径,如螺旋线,要么是采用复杂的基于模型的迭代重建(MBIR)算法,这些算法使用统计模型对缺失信息进行“智能猜测”。
各向异性也以一种更直接的方式产生。在MRI或共聚焦显微镜等技术中,虽然在每个二维切片内采集非常高分辨率的数据(和)是可行的,但为了节省时间,切片本身会做得更厚或它们之间的间隙更大()。这导致体素不是完美的立方体,而是高而窄的长方体。例如,一个MRI体素的尺寸可能是。其各向异性比将为。如果分析师天真地假设体素是立方体,并简单地通过计算体素数量来测量肿瘤体积,他们的结果将错误六倍!。此外,任何三维渲染都会使物体看起来被压扁,将球体变成一堆薄饼。纠正这个问题需要在所有计算中明确考虑真实的体素尺寸。
一旦我们有了体积数据集——这个巨大的三维数字数组,连同其潜在的缺陷——我们该如何探索它呢?
最基本的方法是逐一查看二维切片,就像翻书一样。但我们可以更有创意。由于体积以数据形式存在,我们可以在计算上以任何我们希望的角度“切割”它。生成这样一个斜切片需要一个称为插值的过程。我们新切片的平面不可避免地会穿过原始体素网格点之间。为了找到切片上的值,我们必须从其邻近点来估计。一种常用且有效的方法是三线性插值,它将一个点的值计算为其周围立方体八个角点体素值的加权平均值。这使我们能够以任何方向平滑地导航和重新切片数据。
通常,我们希望将一个体积的所有重要特征一次性展现在一张二维图像上。想象一个神经元,其复杂的树状树突分支遍布整个体积。逐片查看很难领会其整体结构。这时投影技术就派上用场了。最大强度投影(MIP)是一种美观而简单的方法来实现这一点。对于最终二维图像中的每个(X, Y)像素位置,算法会沿着整个深度(Z轴)向下查看体积,并找到该路径上最亮的单个体素值。然后将该最大值绘制到二维图像上。其结果是一个全面的视图,其中所有被荧光标记的树突及其微小的树突棘都显得清晰且同时处于焦点上,无论它们最初的深度如何。
从时空的宏伟架构到单个细胞的精细纹理,体积数据为我们提供了一种新的观察方式。它是一个由数字构建的世界,一个我们可以把握、旋转、切片和探究的现实数字孪生。通过理解其创建的原理和缺陷的本质,我们可以解开隐藏在其体积内的秘密。
既然我们已经探讨了体积数据的原理,现在让我们踏上一段旅程,看看这些思想如何在广阔的科学和工程领域中开花结果。要真正领会一个概念,我们必须看它在实践中的应用。您会发现,用三维来描述事物的简单想法并不仅仅是一个技术细节;它是一扇通往更深层次理解的门户,从生命的微观机器到宇宙中信息的最终命运,无所不包。
体积数据最直接的力量在于它能让我们在不拆解物体的情况下看到其内部。这是科学家们长期梦寐以求的超能力,而今天,它已成为现实。
让我们从非常微小的尺度开始。想象一下,你试图理解一台复杂的机器,但你只能看它的影子。这是结构生物学家长期以来面临的挑战。现在,借助低温电子断层扫描(cryo-ET)等技术,我们可以重建一个病毒的完整三维体积,该病毒被冷冻在接近其天然的状态。这个三维数据不仅仅是一张漂亮的图片;它包含了微妙但关键的信息。例如,对于一种新发现的具有柔性螺旋核心的病毒,其一个关键特性是它的“手性”或螺旋性——它是左手螺旋还是右手螺旋?一个简单的二维投影,就像影子一样,无法区分这两者。解决这个难题的唯一可靠方法是使用完整的三维体积数据。通过在计算上提取螺旋的小三维片段,将它们对齐并平均,我们可以构建一个清晰、高分辨率的三维图谱,从而明确揭示其真实的手性。任何将数据扁平化为二维的方法都会破坏这个至关重要的谜题片段。
向上一个尺度,让我们看看人体内部。考虑一种像阻塞性睡眠呼吸暂停(OSA)这样的病症,患者在睡眠期间气道会塌陷。一次三维扫描,例如锥形束计算机断层扫描(CBCT),为我们提供了咽喉气道的完整体积图。人们可能天真地认为气道的总体积是最重要的因素。但流体动力学原理告诉我们并非如此。气道就像一系列管道,总流量并非由总体积决定,而是由最窄的瓶颈决定。气流阻力与横截面积的平方成反比()。因此,一个微小的狭窄处可能会产生巨大的影响。体积数据使我们能够扫描整个气道结构,找到这个最小横截面积,它比总体积更能预测呼吸困难。当然,我们在解读时必须足够聪明。在人清醒且肌肉紧张时进行的扫描并不能完美代表睡眠期间气道松弛、易塌陷的状态,这一关键细微之处凸显了静态解剖结构与动态生理功能之间的相互作用。
大脑,我们所知的最复杂的物体,也通过体积分析揭示了它的秘密。通过随时间进行体积MRI扫描,我们可以观察过程的展开。对于脑肿瘤患者,连续的体积测量让医生能够计算肿瘤的生长速率。通过将这些数据拟合到指数增长模型,我们可以估计其倍增时间,为判断其侵袭性并指导治疗提供关键信息。在更精微的层面上,体积数据在物理大脑和抽象心智之间架起了一座桥梁。在神经退行性疾病中,我们可以测量特定大脑结构的缓慢、渐进的体积损失或萎缩。通过将海马体的部分萎缩与记忆测试的表现相关联,我们可以在物理结构的衰退与认知功能的丧失之间建立起定量的联系,将一个定性的观察转化为一个可测量的科学原理[@problem-id:5031570]。
最后,让我们更进一步。我们能否不仅仅是看到一个身体部位?我们能把它变成一个完整的功能模型吗?在生物力学中,这正是目标所在。使用CT扫描一个人的小腿,我们可以做一些非凡的事情。因为不同的组织(骨骼、肌肉、脂肪)有不同的密度,它们在扫描中会以不同的方式显示。通过校准这些值,我们可以为体积中的每一个体素赋予一个精确的质量。根据这个详细的三维质量分布,我们可以计算出它的总质量、精确的质心,以及最重要的是,其完整的三维惯性张量——一个关于该物体如何抵抗旋转的完整描述。这个患者特异性的惯性张量随后可以被代入牛顿-欧拉运动方程。这使得我们可以对该特定个体走路或跑步的方式进行极其逼真的计算机模拟,这对于设计个性化的假肢或理解运动损伤的根本原因具有不可估量的价值。
帮助我们理解生命世界的那些思想同样适用于我们用来建造的材料。当工程师设计桥梁或飞机机翼时,他们需要知道材料在应力下的行为。想象一下,你拿一个聚合物圆柱体并拉伸它。它当然会变长变细。但它的总体积会变吗?对于许多材料,尤其是软材料,体积是会变的。
通过一个简单而巧妙的实验——将试样浸入液体中并测量其排开的液体——我们可以在拉伸过程中精确测量其总体积。通过将当前体积与初始体积进行比较,我们得到一个关键数字:体积比,。在连续介质力学的世界里,这个数字不仅仅是一个好奇的对象;它是一个基本的运动学变量。它是将实验者测量的“工程”应力(第一Piola-Kirchhoff应力,)转换为变形材料内部“真实”应力(Cauchy应力,)的关键。它们之间的关系式(其中是变形梯度)是该领域的核心。一个简单的体积测量提供了应用这一定律并准确预测材料行为所必需的基本要素。
至此,您应该已经信服于体积数据的强大。但这种力量伴随着一个巨大的挑战:大小。一个三维体积的数据量远大于一张二维图像。一个大小为的体积包含个数据点,这个数字增长得快得吓人。这种“维度灾难”为我们的计算工具带来了重大障碍。
第一个问题是我们的数据通常并非完美。例如,一次临床CT扫描可能在每个二维切片内有出色的分辨率( 毫米),但切片本身可能很厚且间距很大( 毫米)。这被称为各向异性数据。如果我们将这种数据输入一个标准的三维卷积神经网络(CNN),其立方的()滤波器会试图处理一个在物理空间中并非立方体,而是一个又高又薄的板状区域。这以一种不尊重底层解剖结构的方式混合了信息。一个巧妙的解决方案是设计网络以匹配数据。通过在网络的早期层中使用各向异性核——例如,平坦的核——我们迫使算法首先学习每个二维切片内的特征,然后再尝试跨越稀疏采样的第三个维度组合信息。这不仅更有效,而且更高效,大大减少了所需参数和计算的数量。
更普遍地说,计算量的规模是一个根本性问题。在像视觉Transformer这样的现代AI模型中,核心机制是“自注意力”,即每个数据点(或“令牌”)都会关注其他所有令牌以寻找关系。对于一个有个令牌的体积,这需要计算次交互。即使对于一个中等大小的体积,这个数字也会变得天文数字般巨大,使得这种方法在计算上不可行。解决方案是巧妙地利用数据的结构。我们可以执行“轴向注意力”,而不是进行全对全的比较:首先,我们沿着所有平行于x轴的行运行注意力,然后是所有平行于y轴的列,最后是所有平行于z轴的柱。这种优雅的分解将不可能的问题分解为三个可管理的问题,其成本更接近于。这一算法创新使得将最强大的AI模型应用于大规模体积数据成为可能。
我们已经看到了如何采集、解释和处理体积数据。让我们在旅程的最后提出一个宏大的问题:数据存储的终极物理极限是什么?我们究竟能在一个给定的体积内装入多少信息?
自然界一如既往地提供了一个惊人优雅的解决方案:DNA。DNA分子中的碱基对序列是一种数字代码。通过进行数量级计算,我们可以估算出DNA的理论信息密度。考虑到一个碱基对的大小和紧凑DNA的密度,我们得出的体积信息密度约为每立方厘米比特。当你将此与现代企业级固态硬盘(SSD)(其密度约为每立方厘米到比特)相比时,差异是惊人的。DNA的密度可能高出数亿倍。这不再仅仅是理论上的好奇;科学家们正在积极开发基于DNA的数据存储系统,这可能解决我们日益增长的信息归档需求。
但我们能做得更好吗?物理定律允许的最致密的“硬盘”是什么?根据现代物理学,答案是黑洞。人们可能本能地认为,既然黑洞将物质挤压到一个无限小的点,其体积密度应该是无限的。但物理学远比这更精妙和美丽。Bekenstein-Hawking公式告诉我们,黑洞的信息含量(熵)不与其体积成正比,而是与其事件视界的表面积成正比。这就是全息原理的精髓——即描述一个空间体积的信息可以被编码在其边界上。
让我们看看这对我们的“体积信息密度”意味着什么。信息含量与表面积成比例,其中是Schwarzschild半径。体积与成比例。因此,密度与成比例。由于半径与质量成正比,我们发现体积信息密度与成比例。这是一个真正深刻且违反直觉的结果:黑洞越是巨大和庞大,其信息密度反而越低。宇宙似乎对一个空间区域内能容纳多少信息施加了一个基本的、全息的限制。从CT扫描的实际应用到现实的终极极限,体积数据的概念提供了一条线索,将不同领域以一幅美丽而统一的织锦联系在一起。