try ai
科普
编辑
分享
反馈
  • 大型语言模型:原理与跨学科应用

大型语言模型:原理与跨学科应用

SciencePedia玻尔百科
核心要点
  • 大型语言模型通过自监督的预测游戏来学习语言结构,其理解程度由源于信息论的“困惑度”概念来衡量。
  • 先在海量数据集上进行广泛预训练,然后进行特定任务微调的两阶段过程,使大型语言模型能够高效地适应专门问题。
  • 大型语言模型的核心原理具有普适性,使其应用远超文本范畴,例如在生物学中解码蛋白质的“语言”和解决优化问题。
  • 随着大型语言模型能力的增长,确保其可靠性和安全性需要通过严格的方法进行校准、数据污染检测和伦理威胁建模。

引言

大型语言模型(LLM)已从一个小众研究领域迅速发展成为科技和科学领域的变革性力量,然而对许多人来说,它们仍然是不透明的“黑箱”。本文旨在通过超越其表层能力,探索驱动它们的基础思想,来揭开这些强大系统的神秘面纱。为实现此目标,我们将首先深入探讨其核心​​原理与机制​​,揭示自监督学习、信息论度量(如困惑度)以及预训练与微调之间关键协作的精妙概念。随后,我们将拓宽视野,探索这些模型的卓越​​应用与跨学科联系​​,展示那些驾驭语言的相同原理如何被用于解码生物学中的生命语法、优化计算机系统,以及在安全和伦理领域提出深刻问题。

原理与机制

要真正领会大型语言模型的力量与神秘,我们不能仅仅将其视为神奇的黑箱。我们必须像物理学家那样,探寻支配其行为的基本原理。这些系统的美妙之处在于,其看似复杂的能力源自少数几个优雅且环环相扣的思想。让我们踏上揭示这些核心机制的旅程,不是从复杂的代码开始,而是从一个简单的游戏开始。

预测游戏:从语言本身学习

想象一下世界上最宏伟的图书馆,收藏了几乎所有曾写下的书籍、文章和网站。现在,想象在这个图书馆里玩一个游戏。你选一个句子,涂掉其中一个词,然后让朋友猜这个被涂掉的词。为了成功,你的朋友不能只靠背单词;他们必须理解语法、上下文,甚至微妙的含义。

这本质上就是训练大型语言模型玩的主要游戏。这个过程被称为​​自监督学习​​,一个既简单又深刻的概念。“监督”或学习过程中的“正确答案”来自数据本身。我们不需要人类来标记任何东西。文本自己提供了问题和答案。

这个游戏的一个流行版本被称为​​掩码语言建模(MLM)​​。我们不是总是预测下一个词,而是在文本中随机隐藏或“掩盖”一些词,并让模型来填空。这迫使模型不仅要从前面的内容学习,还要从左右两边的完整上下文中学习。

现在,有人可能会问:面对数万亿个词,我们如何确保模型能学到它们在各种情境下的用法?这个过程并非一次性的、确定性的过程,而是一场动态的、概率性的舞蹈。在每次训练运行(即​​轮次 (epoch)​​)中,庞大语料库中的每一个词元(token)都有一个小的概率(我们称之为 ppp)被选为学习目标。虽然单次遍历中这个概率很小,但训练会持续多个轮次(EEE)。一个特定的词位置被选中进行梯度更新的总次数遵循简单的概率法则。任何给定词元的期望学习机会次数就是 EpEpEp。更重要的是,在整个训练过程中,一个词元被用于学习至少一次的概率会随着轮次数量的增加而趋近于确定性,其公式优雅地表述为 1−(1−p)E1 - (1-p)^E1−(1−p)E。这种重复的、随机的抽样确保了随着时间的推移,模型能够全面而透彻地在整个数据的广度上进行训练,不留任何死角。

困惑度指南:衡量理解

当我们的模型一遍又一遍地玩这个预测游戏时,我们如何知道它是否真的在进步?我们需要一个记分卡,一个告诉我们方向是否正确的指南针。在语言建模中,这个指南针就是​​困惑度​​。

困惑度的核心是衡量惊讶程度。一个 хорошо 理解语言的模型在读到一个新句子时不会感到太惊讶。当它试图预测下一个词时,它会给实际出现的词赋予很高的概率。这种惊讶程度的数学度量被称为​​交叉熵​​。困惑度定义为 PPL=exp⁡(交叉熵)\mathrm{PPL} = \exp(\text{交叉熵})PPL=exp(交叉熵),它将这个抽象的分数转换成一个非常直观的概念。

你可以将困惑度看作是模型在每一步所面临的有效选择数量。如果一个模型的困惑度是100,这意味着它对下一个词的困惑程度,就如同从100个等可能选项中猜测一样。一个已经学会了语言模式的好模型,其困惑度可能接近于10。它有效地将可能性缩小到了少数几个可能的候选项。

这个想法直接关联到所有科学中最深刻的概念之一:来自信息论的​​熵​​,即不确定性的度量。模型的困惑度与其压缩数据的能力直接相关。一个低困惑度的模型对语言有一个更准确的概率图谱,这个图谱可以用来更有效地编码语言。正如信息论之父 Claude Shannon 所证明的,平均而言,编码一个字符所需的理论最小比特数是其熵 HHH。这个熵可以直接从困惑度计算出来:H=log⁡2(PPL)H = \log_{2}(\mathrm{PPL})H=log2​(PPL)。例如,如果一个模型评估一段文本时,每个字符的困惑度为11.5,这意味着根据该模型的理解,该文本的基本信息内容约为 log⁡2(11.5)≈3.52\log_{2}(11.5) \approx 3.52log2​(11.5)≈3.52 比特/字符。更低的困惑度意味着更好的模型、更少的惊讶和对信息更紧凑的表示。

信息瓶颈:穿越向量空间的旅程

我们有了一个游戏和一个记分卡。但模型内部到底在做什么?当词和句子从文本字符串转换为称为​​嵌入 (embeddings)​​ 的丰富数值表示时,魔法就发生了。嵌入是一个向量——一串数字——它在高维几何空间中捕捉一段文本的“意义”。在这个空间里,意义相近的词彼此靠近。

这种嵌入充当了​​信息瓶颈​​。考虑总结一份文档的任务。这个过程可以看作一个链条:原始句子 (XXX) 被编码成一个嵌入 (YYY),然后解码器只使用这个嵌入来生成摘要 (ZZZ)。这形成了一个马尔可夫链:X→Y→ZX \to Y \to ZX→Y→Z。

信息论为我们提供了一个强大而绝对的定律来支配这个过程:​​数据处理不等式​​。它指出你不能凭空创造信息。任何处理步骤,无论是编码还是解码,都只能保留或丢失信息;它永远无法增加信息。这意味着原始句子和最终摘要之间的互信息 I(X;Z)I(X; Z)I(X;Z),不能大于成功打包到嵌入中的信息 I(X;Y)I(X; Y)I(X;Y)。更正式地说,I(X;Z)≤I(X;Y)I(X; Z) \le I(X; Y)I(X;Z)≤I(X;Y)。如果嵌入从句子中捕获了15.4比特的信息,但解码器只能从中提取12.8比特的信息来撰写摘要,那么该摘要所包含的关于原始句子的信息就不可能超过12.8比特。模型生成的每一个思想、每一个细微差别、每一个事实,都必须先通过其自身内部表示的狭窄通道。

两步舞:预训练与微调

现代大型语言模型的卓越效率源于一支两步舞:漫长而耐心的预训练华尔兹,随后是快速而敏捷的微调探戈。

​​预训练​​是通才阶段。在此阶段,模型从一个巨大的、未标记的语料库——互联网的很大一部分——中学习。其规模之大难以想象;仅初始数据处理就涉及为处理 TB 级文本而设计的算法,例如从如此庞大的数据集中构建词汇表所需的外部排序。在此阶段,模型不学习任何特定任务。它只是在玩预测游戏,学习语言的基本结构、关于世界的事实和推理模式。目标是生成一套强大的、通用的嵌入。这种范式非常强大,甚至可以应用于文本之外。例如,在生物学中,模型可以在一个庞大的蛋白质序列数据库上进行预训练,学习“生命的语言”。一个巧妙的自监督任务可以是预测两种蛋白质之间的进化距离,而“正确”答案可以通过比对序列并应用分子进化模型来即时生成。

​​微调​​是专才阶段。一旦我们有了一个具备丰富、通用理解的预训练模型,我们就可以以惊人的效率将其调整到特定任务上。这是一种​​迁移学习​​。我们获取预训练模型,并继续对其进行训练,但这次是在一个更小的、经过策划的、带有特定标签的数据集上。例如,一个在整个互联网上预训练的模型,可以在一小组标记为“垃圾邮件”或“非垃圾邮件”的电子邮件上进行微调,从而成为一个出色的垃圾邮件过滤器。

生物学中的一个简单类比完美地说明了这种能力。我们可以首先对数千个未标记的蛋白质序列进行无监督分析,以学习它们最重要的底层特征(类似于预训练)。然后,我们可以使用这些学到的特征,在仅仅少数几个标记的蛋白质上训练一个简单的预测模型,来预测像稳定性这样的属性。这个两阶段过程——先学习通用表示,然后进行专业化——使得模型能够在特定任务上用极少的标记数据达到高性能,这是从零开始训练所不可能实现的壮举。

驯服巨人:正则化的艺术

训练一个拥有数十亿参数的模型,就像试图驯服一个巨人。没有精心的引导,它很容易​​过拟合​​——即仅仅记住训练数据,而不是学习可泛化的模式。训练的艺术涉及多种​​正则化​​技术,以约束这个巨人。

其中一种技术是​​标签平滑​​。我们不强求模型对正确答案有100%的信心,而是采取对冲策略。我们在一个“平滑”的目标上训练它,告诉它正确词的概率是,比如说,90%,而剩下的10%则分配给其他词。这能抑制过度自信,并产生一个校准得更好的模型——一个其声称的置信度与其准确性实际相符的模型。我们甚至可以更巧妙一些:​​类别条件​​的平滑策略可能只在语义相似的词之间分配不确定性,从而提供更具针对性和更有效的正则化信号。

另一项关键技术是​​L₂ 正则化​​,或称​​权重衰减​​。这就像给模型的所有参数(“权重”)套上一个温和的缰绳。它在训练目标中增加一个与权重大小的平方成正比的惩罚项,鼓励模型找到使用较小权重的更简单的解决方案。其效果可能是微妙而深刻的。一个有趣的思维实验揭示了 Transformer 架构内部复杂的动态。如果我们只对模型的 MLP(前馈网络)部分应用权重衰减,我们会缩小它们的权重,但让注意力机制自由地进行尖锐的操作。然而,如果我们将其应用于注意力投影矩阵(WQ,WKW_Q, W_KWQ​,WK​),我们会缩小查询向量和键向量。这会降低它们点积的大小,而点积是计算注意力权重的 softmax 函数的输入。softmax 的输入变小会导致一个“更平坦”、更均匀的输出分布。注意力变得更模糊,其熵增加。在这两种情况下,缩小模型的权重都可以减少其对复杂上下文特征的依赖,使其退回到更简单的、未正则化的偏置上,这些偏置通常只是编码了常见词的频率。当模型不确定时,它就预测“the”。但当正则化注意力时,效果更强,因为这不仅缩小了整体信号,还降低了上下文信息本身的质量。

从实验室到现实世界:校准与污染

在实验室里训练好的模型并非故事的终点。要在现实世界中有用,它必须可靠、可信,并能稳健地应对新情况。

一个挑战是​​领域偏移​​。一个在通用网络文本上预训练的模型,在应用于像法律合同或医疗记录这样的专业领域时,可能表现不佳,因为这些领域的词汇和措辞都不同。这时,我们可以求助于统计学的基石:​​贝叶斯法则​​。我们可以将模型的输出视为一个似然 P(上下文∣词)P(\text{上下文} | \text{词})P(上下文∣词),并将我们新领域中的词频视为一个新的先验 P目标(词)P_{\text{目标}}(\text{词})P目标​(词)。通过将它们结合,我们可以计算出一个校准到目标领域的新后验概率。这可以通过调整模型的输出 logits 来优雅地实现:z校准′=z模型+log⁡P目标(词)−log⁡P基础(词)z'_{\text{校准}} = z_{\text{模型}} + \log P_{\text{目标}}(\text{词}) - \log P_{\text{基础}}(\text{词})z校准′​=z模型​+logP目标​(词)−logP基础​(词)。这使我们能够外科手术般地调整模型的行为,将其复杂的神经机制植根于一个永恒的统计学原理之上。

最后,我们面临科学有效性的终极问题:我们如何知道模型令人印象深刻的表现是真实的?任何科学家都会有一个挥之不去的担忧:​​数据污染​​——如果模型在其海量的预训练过程中意外看到了测试题怎么办?回答这个问题需要堪比临床试验的实验严谨性。一个健全的方案包括一个对照组:一个在已验证数据集上训练的“干净”模型,以及一个“影子”测试集,保证不存在于任何训练数据中。通过寻找非自然的性能提升可以检测到污染。一个被污染的模型在其见过的测试数据上会表现出惊人的低困惑度,这个信号可以使用像​​双重差分法​​这样的统计技术来分离。通过比较可疑模型与干净模型在受污染测试集与影子测试集上的表现差异,我们可以区分出真正的泛化能力和纯粹的记忆。这种细致的审计对于建立信任和确保我们在这个新领域中发现的科学完整性至关重要。

从一个简单的预测游戏到统计验证的前沿,大型语言模型的原理揭示了信息论、统计学、计算机科学和实验设计的美妙结合。它们不是魔法,而是在前所未有的规模上应用这些核心思想的宏伟成果。

应用与跨学科联系

在探索了赋予大型语言模型生命力的原理之后,我们可能会倾向于认为它们纯粹是人类语言的大师。但这就像看到万有引力定律却认为它只适用于下落的苹果一样。一个强大科学思想的真正美妙之处在于其普适性——它能够在乍看之下似乎毫无关联的领域中描述、预测甚至创造模式。LLM 背后的原理也不例外。它们不仅仅关乎语言;它们关乎结构、上下文和推断。它们关乎学习任何可以表示为序列的系统的“语法”。

现在,让我们踏上一段旅程,超越熟悉的文本领域,去见证这些模型在科学和工程领域中令人惊讶而深刻的影响力。我们将看到,那个能写十四行诗的引擎,也能帮助设计拯救生命的药物;那个驱动聊天机器人的架构,必须应对计算机内存的基本限制;那个能补全句子的逻辑,可以用来处理我们这个时代最严峻的伦理问题。

解码生命语言

或许 LLM 最令人叹为观止的应用在于一个“语言”具有更古老、更根本意义的领域:生物学。基因组是一本用四字母(A、C、G、T)写成的书,而蛋白质是折叠成三维形状的复杂词汇。几十年来,我们一直试图破译这种语言。现在,借助 LLM,我们开始说这种语言了。

想象一位生物学家试图设计一种新抗体来中和一种危险的病毒。可能的抗体序列数量是天文数字,对每一种进行实验测试都是不可能的。然而,我们拥有来自生命之树各处的已知蛋白质序列的庞大数据库。一个在这个海量语料库上预训练的“蛋白质语言模型”已经学会了蛋白质结构的基本语法。通过采用这个通才模型,并在极少数(比如三个)经过实验测量的抗体-抗原结合亲和力数据上进行微调,我们可以创建一个专门的预测器。LLM 从其嵌入中提供了强大的通用特征,而在其上构建的一个简单线性模型可以以惊人的准确性学习特定任务,将一个大海捞针的问题变成了有指导的搜索。

这种“阅读”生命语言的能力甚至更深。真核生物的基因以其复杂性而闻名,编码区(外显子)被非编码区(内含子)打断。找到精确的边界——“剪接位点”——是生物信息学中的一个经典挑战。一个在整个基因组上预训练的 LLM 可以学习到预示这些边界的微妙上下文线索。它可以执行“零样本”预测,在从未经过标记样本显式训练的情况下,识别新序列中的剪接位点,就像你可以在一种你不懂的语言的句子中识别出问号一样。这种迁移学习之所以如此有效,是因为预训练目标迫使模型既要捕捉局部基序(如启动子中的 TATA 盒),又要捕捉支配基因调控的远程依赖关系。这些学到的知识为任何特定的下游任务提供了巨大的先发优势,从而大大减少了对标记数据的需求。

从阅读,我们可以转向写作。在合成生物学领域,科学家们旨在设计具有新功能的蛋白质,例如可以分解塑料垃圾的酶。这个“定向进化”过程可以由 LLM 指导。从一个包含 50 个经过实验测试的酶变体的小型库开始,我们可以微调一个模型来预测任何新序列的两件事:其可能的催化活性(μ\muμ)和模型自身对该预测的不确定性(σ\sigmaσ)。为了选择要合成的下一个变体,我们可以使用一种来自强化学习的巧妙策略,称为​​置信上界(UCB)​​。UCB 分数 μ(x)+βσ(x)\mu(x) + \beta \sigma(x)μ(x)+βσ(x) 优雅地平衡了利用(选择预测活性高的突变体)和探索(在模型不确定的区域测试突变体)。这使我们能够有效地在可能的蛋白质的广阔搜索空间中导航,以前所未有的方式加速发现。

智能的架构

虽然 LLM 展现了数字智能的壮举,但它们并非无形的幽灵。它们是在真实硬件上运行的物理过程,其庞大的规模带来了引人入胜的挑战,将它们与计算机科学的基础构件联系起来。

考虑在你的个人电脑上运行一个 7.5 GiB 的大型语言模型。这个模型,一个巨大的数值参数集合,必须被加载到内存中。操作系统以称为“页”的块来管理内存。一个标准页可能是 4 KiB,但为了提高效率,系统可以使用“巨页”,例如 2 MiB。使用巨页可以减少地址转换的开销,因为计算机内存映射表中的一个条目现在可以覆盖一个大得多的区域。然而,这也有代价:它降低了内存分配器的灵活性,可能导致空间浪费。那么,最佳策略是什么?事实证明这是一个简单的线性优化问题。总内存占用是数据大小、页表条目的元数据开销和碎片化惩罚的函数。通过分析这个函数的斜率,我们可以确定是应该尽可能多地使用巨页,还是根本不使用。对于一个典型的 LLM,使用巨页节省的元数据开销远大于碎片化惩罚,因此最佳策略是对整个模型使用巨页。这是一个绝佳的例子,说明了人工智能的抽象世界如何与操作系统的底层逻辑直接交互。

即使在模型自身的架构内部,我们也能发现来自其他领域原理的回响。一个 LLM 有一个有限的“上下文窗口”——它一次只能关注有限数量的输入。当面对一篇长文档时,模型如何决定关注哪些部分以最好地完成任务?这本质上是一个资源分配问题,其形式与微观经济学中经典的消费者理论问题相同。模型有一个固定的预算(上下文窗口大小,BBB),并且必须将其分配给不同的用途(文档的块,xix_ixi​)。每次分配都会产生一定的“效用”,由一个类似 U(x)=∑iailn⁡(1+bixi)U(x) = \sum_i a_i \ln(1+b_i x_i)U(x)=∑i​ai​ln(1+bi​xi​) 的函数描述,该函数表现出边际收益递减的特性——一段话的头几个词比最后几个词信息量更大。通过应用约束优化的数学工具,如卡罗需-库恩-塔克(KKT)条件,我们可以找到使模型总效用最大化的最优分配。这种令人惊讶的联系揭示了 LLM 的内部工作可以通过理性经济选择的视角来理解。

我们自身的一面镜子

随着这些模型越来越融入我们的数字生活,一系列新问题浮现出来。它们如何与我们——它们的人类创造者——相关联?我们如何确保它们的行为是安全的、可靠的,并与我们的价值观保持一致?

一个紧迫的首要问题是真实性:我们能区分人类写的文本和机器生成的文本吗?虽然没有一种方法是万无一失的,但我们可以找到统计线索。一个有趣的想法是将文本视为一个时间序列。通过将每个词转换成一个向量并测量连续词之间的距离,我们生成一个数字序列。这个序列的“节奏”和“纹理”可以使用计量经济学和信号处理中的工具来分析,比如​​偏自相关函数(PACF)​​。在一个自回归过程中,一个值仅依赖于前几个值,其 PACF 会急剧截断——这可能是某些 LLM 更具可预测性的一个潜在标志。人类的写作,具有更丰富、更长程的依赖关系,可能会表现出更缓慢衰减的 PACF。这提供了一种潜在的、尽管是假设性的方法来寻找“机器中的幽灵”。

一个更直接的概率方法使用​​贝叶斯定理​​。假设我们知道 80% 的 LLM 生成的文本具有较低的“困惑度”分数(一种可预测性的度量),而只有 5% 的人类文本如此。如果我们得到一篇困惑度分数很低的文本,它来自 LLM 的概率是多少?这是一个经典的条件概率谜题,它允许我们在面对新证据时更新我们的信念,构成了许多 AI 检测工具的基础。

除了检测,我们还想改进模型本身。当我们向 LLM 提问时,可以通过使用不同的提示并组合结果来获得更好、更稳健的答案。这就像用几种不同的方式问一个问题,以确保得到一致的答案。我们可以用贝叶斯推理来形式化这个过程。通过将每个提示的预测视为一次观察,并对可能的结果施加一个​​狄利克雷先验​​,我们可以计算出一个后验分布,该分布代表了我们看到数据后更新的信念。这个后验分布的均值给了我们一个稳健的集成预测,而其方差告诉我们对该答案应该有多大的信心。这提供了一种有原则的方法来减少不确定性并提高零样本分类器的可靠性。

最后,我们来到了所有联系中最深刻的一个:巨大能力与巨大责任之间的联系。一个能够设计基因回路的 LLM 是一个前所未有强大的工具,但它也是一个可能被滥用的潜在“双重用途”技术。我们应该如何思考这种风险?我们可以构建一个定性的​​威胁模型​​,就像安全工程师为物理系统所做的那样。我们必须识别攻击面(用于导出 DNA 的 API、社区市场、插件生态系统),分析不同行为者的能力和意图(从好奇的业余爱好者到恶意的国家支持团体),并基于“纵深防御”原则来确定缓解措施的优先级。解决方案不是禁止技术或依赖单一的检查点,而是建立一个分层的控制系统:“了解你的客户”检查、合成前的独立序列筛选、用于强制执行最小权限的插件沙箱,以及用于标记可疑行为的异常检测。这种平衡效用与安全的方法,将人工智能的前沿与安全、治理和伦理这些永恒的领域联系起来。

从细胞的微观语法到全球安全的宏观挑战,大型语言模型所体现的原理已被证明具有非凡的通用性。它们不仅仅是模式识别器;它们是思维的工具,让我们能够以新的方式构建问题,在多样性中寻找统一,并直面伴随创造力而来的最深层责任。