try ai
科普
编辑
分享
反馈
  • 材料发现:从偶然到人工智能驱动的设计

材料发现:从偶然到人工智能驱动的设计

SciencePedia玻尔百科
核心要点
  • 现代材料发现已经从偶然发现演变为对广阔化学空间的系统性、人工智能引导的探索。
  • 在高通量计算筛选和机器学习中,通过贝叶斯优化进行引导,策略性地平衡了对已知材料的利用与对新可能性的探索。
  • 自主发现平台,或称“自驱动实验室”,整合了人工智能和机器人技术,创建了假设、实验和学习的闭环。
  • 人工智能驱动的发现的可靠性取决于严格的不确定性量化和积极减轻训练数据中固有偏差的策略。

引言

纵观人类历史,我们所掌控的材料——从石器时代到硅时代——定义了我们的进步。然而,发现这些变革性材料的道路通常是一段缓慢、艰辛的试错过程,依赖于直觉和偶然。这种传统方法太慢,无法应对我们时代从清洁能源到先进医疗的迫切技术挑战。在可能材料的浩瀚宇宙与我们有效识别其中少数具有卓越性能的材料的能力之间,存在着一道根本性的鸿沟。本文描绘了材料科学领域一场革命的进程,这场革命用智能设计取代了猜测。在接下来的章节中,我们将首先深入探讨“原理与机制”,探索从简单的指导规则到强大的计算和机器学习策略的演变,这些策略使我们能够以前所未有的速度和准确性寻找新材料。然后,我们将穿梭于“应用与跨学科联系”之中,见证这些原理如何被用于从头设计新型合金,驱动自主的“自驱动”实验室,甚至为研究本身的经济策略提供信息。准备好探索我们如何绘制通往未来材料的地图。

原理与机制

我们如何发现一种新材料?在人类历史的大部分时间里,答案是工艺、运气和艰苦试错的结合。我们偶然发现了青铜,锻造了铁,并完善了钢。但我们能做得更好吗?我们能否从黑暗中摸索变为手持地图导航?现代材料发现的故事,就是绘制这张地图的故事——一段从简单的经验法则到能够构想出我们从未见过的材料的智能机器的旅程。

从意外之喜到指导规则

让我们回到20世纪初。德国冶金学家Alfred Wilm正试图为那个时代的新奇迹——齐柏林飞艇——创造一种坚固、轻质的铝合金。他将铝和少量铜熔合,加热,然后迅速浸入水中——这个过程称为淬火。他测量了其硬度,结果令人失望。这种材料仍然太软。他把样品放在一边,据说,他去度了个长周末。当他回来时,一时兴起又测量了一次。令他惊讶的是,仅仅是在室温下的架子上放了几天,该合金就变得显著更硬、更强了。

这个意外之喜,一个经典的​​偶然性​​案例,导致了​​沉淀硬化​​的发现和一种名为Duralumin的革命性材料的诞生。Wilm在无意中将铜原子困在了铝的晶体结构中,而这些铜原子并不完全适合这个结构。随着时间的推移,这些原子聚集成微小的、坚硬的析出物,像路障一样阻碍着试图在金属中移动的缺陷,从而使其强度大大增加。这一个偶然的发现改变了航空和工程学的进程。

Wilm的故事鼓舞人心,但你不能把整个产业建立在等待好运上。科学家们开始寻找模式,寻找能在第一座熔炉点燃之前就预测材料结构和性质的​​指导原则​​。其中最早也最优雅的原则之一是​​半径比规则​​,一个来自固态化学的美妙而简单的概念。想象一下,你正试图用两种类型的球体来构建一个晶体,一种是小球(阳离子,如Ca2+Ca^{2+}Ca2+),一种是大球(阴离子,如F−F^{-}F−)。它们将如何堆积在一起?最稳定的排列方式是小球体尽可能多地接触大球体,既不会在一个太大的空隙中晃动,也不会把大球体推开。

通过简单地计算阳离子半径与阴离子半径之比(p=rc/rap = r_c / r_ap=rc​/ra​),我们就能对​​配位数​​——即每个离子将拥有的邻居数量——做出一个惊人准确的猜测。对于像氟化钙(CaF2\text{CaF}_2CaF2​)这样的材料,Ca2+Ca^{2+}Ca2+的离子半径约为100 pm,F−F^{-}F−的离子半径约为133 pm。比值p≈0.752p \approx 0.752p≈0.752。这个值落入了一个预测Ca2+Ca^{2+}Ca2+离子在被8个F−F^{-}F−邻居包围时最为稳定的范围。CaF2\text{CaF}_2CaF2​的化学计量则要求每个F−F^{-}F−必须被4个Ca2+Ca^{2+}Ca2+离子包围。这种(8, 4)配位是所谓的​​萤石结构​​的决定性特征,而这确实是氟化钙的正确晶体结构。这些源于几何学和将原子视为硬球思想的简单规则,是为材料设计创建理性、预测性框架的首次尝试。

数字的暴政:计算搜索的黎明

像这样的规则功能强大,但它们有其局限性。当你有三种、四种甚至更多种元素时会发生什么?可能的组合数量会爆炸式增长。这不仅仅是把A和B混合的问题;这是关于以可能无限的比例混合A、B和C(AxByCzA_x B_y C_zAx​By​Cz​),然后判断该组合是否能形成一个稳定的、电中性的化合物。

这就是“数字的暴政”的由来。想象一下,我们想探索所有可能的三元氧化物——由两种不同金属和氧组成的化合物。即使是定义搜索空间,也是一个惊人的数学挑战。对于任何给定的元素组合,比如锂、钴和氧(LixCoyOz\text{Li}_x\text{Co}_y\text{O}_zLix​Coy​Oz​),电中性要求离子的正负电荷总和必须为零。对于所有可能的组分,这一约束在所有可以想象的比例的广阔空间中划出了一条特定的“电中性线”。仅仅是枚举这些可能性,在我们思考计算它们的性质之前,就已经不是人类的工作,而是计算机的工作了。这种从应用简单规则到系统地枚举广阔化学空间的根本性转变,标志着材料科学计算时代的开始。

数字筛:高通量筛选

如果计算机可以列出所有候选者,它是否也能测试它们?这就是​​高通量计算筛选​​的核心思想。我们不再花数周时间在实验室合成单一材料,而是可以使用量子力学模拟,如密度泛函理论(DFT),在计算机内部计算数千种假设材料的性质。

当然,这里有个问题。高精度的模拟非常缓慢。用最严谨的方法测试数百万个候选者将需要几个世纪的计算机时间。所以,我们变得聪明起来。我们设计了一个多层次的工作流程,一种“数字筛”。

  • ​​第一步:粗筛。​​ 我们从一个巨大的候选库开始——也许有5000个或更多。对于每一个,我们都进行快速、近似的计算。例如,我们可能只使用一种要求不高的计算方法(如GGA泛函)来获得材料晶体结构的合理估计。

  • ​​第二步:中筛。​​ 然后,我们将所有这些结构进行稍微昂贵但更准确的计算(可能使用范围分离杂化泛函,即RSH泛函)来估计我们关心的性质,比如决定其电子行为的能隙。这使我们能够将所有5000个候选者从最有希望到最没希望进行排序。

  • ​​第三步:精筛。​​ 最后,我们只选取“优中选优”的——也许是排名前10的候选者——并对它们进行非常昂贵、高精度的计算(如双杂化泛函),以获得真正可靠的预测。

这种漏斗策略是速度与准确性之间的务实折衷。它使我们能够探索广阔的化学领域而不会陷入困境,将我们宝贵的计算资源只集中在最有可能成功的候选者上。

预感的艺术:教机器去探索

高通量筛选是一种强大的暴力方法。但我们能否让它更智能?如果计算机不是系统地测试所有东西,而是能发展出一种“直觉”——一种关于下一步该去哪里寻找的科学预感呢?这就是​​机器学习(ML)​​的领域。

第一步是教计算机说化学的语言。ML模型无法理解“氧化锂钴”,它理解数字。因此,我们必须将每种材料翻译成一个数字指纹,一个特征向量。这个称为​​特征化​​的过程是一门植根于物理和化学的艺术。对于像AB2AB_2AB2​这样的化合物,我们不仅仅告诉计算机“A”和“B”。我们给它能捕捉这些元素本质的数字:它们吸引电子的趋势(​​电负性​​)、它们的大小(​​离子半径​​)以及它们的电子构型(​​价电子数​​)。一套好的特征可能包括A和B之间的电负性差异来描述化学键的离子特性,它们尺寸的不匹配度来描述堆积应变,以及一个在平衡电子时考虑1:2化学计量的项。这个指纹让模型能够看到它从未遇到过的材料之间的相似性。

有了这种数字语言,ML模型就可以学习材料特征与其性质之间的复杂关系。但其最深远的应用不仅仅在于预测,而在于引导发现。这把我们带到了著名的​​探索-利用困境​​。

想象你正在一个有数百个摊位的大型美食节上。你是回到那个你知道还不错的摊位(利用)?还是尝试一个可能很棒……也可能很糟糕的未知新摊位(探索)?引导材料搜索的人工智能面临同样的选择。它应该建议在一个与当前找到的最佳材料相似的材料上进行实验(利用),还是应该冒险进入一个全新的、不确定的化学地图区域,那里可能隐藏着突破(探索)?

为了解决这个问题,人工智能系统使用一种聪明的策略,叫做“面对不确定性时的乐观主义”。它们不只是预测一个性质;它们预测一个性质以及它们对该预测的不确定性。贝叶斯优化中一种常见的方法使用一个​​采集函数​​来平衡这两者。为了找到一种形成能低(即非常稳定)的材料,人工智能可能会尝试最小化一个量,如置信下界(LCB):μ(x)−βtσ(x)\mu(\mathbf{x}) - \sqrt{\beta_t} \sigma(\mathbf{x})μ(x)−βt​​σ(x)。在这里,μ(x)\mu(\mathbf{x})μ(x)是模型对能量的最佳猜测(“利用”项),而σ(x)\sigma(\mathbf{x})σ(x)是其不确定性(“探索”项)。通过减去不确定性,人工智能对它知之甚少的区域变得“乐观”。一个预测能量平平但有非常高不确定性的点,可能会有一个非常低的LCB,使其成为下一次实验的有吸引力的候选者。这种对好奇心的数学表述,使得人工智能能够高效地搜索,平衡稳妥的选择和有风险但可能带来革命性新想法的尝试。

与现实的对话:自驱动实验室

现在,我们可以将所有部分连接成一个真正具有未来感的概念:​​自主发现平台​​,或称“自驱动实验室”。在这里,人工智能直接与机器人合成和表征硬件相连。循环是闭合的:人工智能分析所有可用数据,利用其特征化知识和探索-利用策略设计一个新的实验,然后由机器人执行该实验。结果被反馈给人工智能,人工智能随后更新其对世界的理解并规划下一次实验。

这个学习过程的核心是概率论的基石:​​贝叶斯推断​​。人工智能从一个关于世界如何运作的“先验”信念开始,这个信念由一个概率分布表示。当它从实验中收到新数据时,它使用贝叶斯定理来更新其信念,得到一个“后验”分布。这个后验本质上是一种妥协,是其旧信念和新证据之间的加权平均。如果人工智能对其先验信念非常确定,那么需要大量相互矛盾的数据才能改变其看法。如果其先验不确定,它将迅速适应新的实验结果。这个相信-预测-测试-更新的循环是模型与现实之间持续、自动的对话。

为了使这场对话富有成效,人工智能必须诚实地面对它所不知道的东西。这整个事业中最关键的部分是​​不确定性量化​​。在一个数据驱动的模型中,不确定性有两种类型:

  1. ​​偶然不确定性(Aleatoric Uncertainty)​​:这是系统中我们无法消除的内在随机性或噪声。想象一下测量中的随机热波动或传感器中的散粒噪声。即使有一个完美的宇宙模型,这种不确定性仍然会存在。这是“不可知”的。
  2. ​​认知不确定性(Epistemic Uncertainty)​​:这是由于我们自身知识的缺乏而产生的不确定性。它来自于数据有限或使用不完美的模型。例如,在DFT计算中选择特定近似所引入的误差是认知性的。这是我们可以通过收集更多数据或构建更好的模型来减少的不确定性。这是“未知”的。

一个成功的人工智能必须区分这两者。高偶然不确定性意味着化学空间的某个区域本质上是“模糊的”或难以预测。高认知不确定性仅仅意味着“我在这里需要更多数据!”,并且是给人工智能“大脑”探索部分的直接命令。

机器中的幽灵:驾驭不确定性与偏见

这把我们引向最后,也是最重要的原则。这些强大的人工智能系统并非魔法。它们是由人类构建并用人类收集的数据训练的复杂工具。因此,它们会继承我们的偏见并犯错。一个模型的优劣取决于训练它的数据。

如果我们的历史数据主要来自对氧化物的研究,我们的模型将成为氧化物专家,而对氮化物或硫化物等一无所知。这种​​数据集偏差​​可能造成科学盲点,人工智能会系统地忽视整个可能有用的材料家族,仅仅因为它们在其训练数据中代表性不足。

应对这个问题是科学人工智能的一个主要前沿领域。负责任的从业者必须:

  • ​​保持透明:​​ 这意味着 meticulously 记录整个工作流程:固定随机种子、进行软件版本控制、并发布所有代码和数据清理步骤。这意味着创建“模型卡片”,描述模型的预期用途、局限性和已知偏见。
  • ​​纠正偏见:​​ 当我们知道我们的训练数据相对于我们的目标应用存在偏见(一个被称为​​协变量偏移​​的问题)时,我们可以使用诸如重要性加权之类的统计技术,在训练和评估期间给予代表性不足的数据点更多的权重。
  • ​​促进多样性:​​ 在自主发现循环中,我们可以明确地编程让人工智能重视多样性,在其采集函数中增加一个惩罚项,以阻止它重复访问化学地图的同一个小角落。这迫使人工智能积极探索未知。

最终,材料发现的目标不仅仅是建立一个更好的预测器,而是为人类科学家建立一个值得信赖的协作伙伴。通过理解这些系统如何学习、如何对不确定性进行推理,以及它们的盲点所在,我们可以驾驭它们不可思议的力量,加速设计将塑造我们未来的材料。

应用与跨学科联系

在上一章中,我们漫步于驱动现代材料发现引擎的基本原理与机制之中。那是一片由统计力学、信息论和计算融合而成的美丽思想景观。但是,一张地图,无论多么优雅,只有在能引向宝藏时才最有价值。现在,我们的旅程从“如何做”转向“所以呢?” 这些原理在现实世界中如何焕发生机?它们在哪里与科学和工程的其他领域相连接,以解决问题、创造新技术并重塑我们的理解?

在探索这些应用时,你会发现一个令人愉悦的反复出现的主题。就像在一场宏大的交响乐中,几个核心主题——优化、从数据中学习、管理不确定性——以不同的面貌反复出现,从单原子厚度材料的设计,到数百万美元研究设施的战略管理。这正是我们所寻求的科学内在的统一性与美感。它不是一堆孤立的技巧,而是一种能够在不同学科间扩展的连贯思维方式。

新炼金术:从第一性原理设计材料

几千年来,新材料的创造是一门依赖于试错和偶然的技艺。今天,我们正处在一场革命之中。我们现在可以从一个期望的性质出发,利用物理定律和计算的力量,设计出拥有该性质的材料。这是一种新的炼金术,其基础不是神秘主义,而是数学。

一个绝佳的例子是设计一种奇特而卓越的材料——高熵合金(HEAs)。过去的冶金学智慧教导我们,将太多不同种类的金属混合在一起会造成一团糟——一种由不同晶相组成的脆弱、无用的混合物。但在21世纪初,一个惊人的发现出现了:如果你将五种或更多元素以大致相等的比例混合,一些神奇的事情可能会发生。原子们非但没有分离,反而常常排列成一个简单的单晶结构。为什么?答案并非来自某种复杂的化学相互作用,而是源于物理学中的一个基本概念:熵。

想象一个巨大的舞厅,里面穿着红、蓝、绿、黄、紫衬衫的人数相等。你最可能看到什么样的排列?不是所有红衬衫的人聚集在一个角落,所有蓝衬衫的人聚集在另一个角落。不,最可能的状态是彻底的随机混合。混乱混合的方式远比有序排列的方式多得多。同样地,当你在一个晶格上混合多种类型的原子时,可能的随机排列数量,即系统的构型熵,会变得巨大。熵的增加可以提供一个强大的热力学驱动力,尤其在高温下,稳定这种简单的、混合的固溶体相。从熵的基本玻尔兹曼定义S=kBln⁡ΩS = k_B \ln \OmegaS=kB​lnΩ出发,我们可以推导出这个效应的一个优美简洁的公式。这个原理给了我们一个强大的设计规则:要创造稳定、简单的结构,我们可以利用随机性本身的力量。

但知道一种材料是稳定的仅仅是开始。我们需要知道它的性质。当我们加热它或挤压它时,它会如何表现?在这里,计算再次提供了一个水晶球。现代材料发现流程通常采用机器学习原子间势(MLIPs)。这些是复杂的函数,通过大量高精度量子力学计算的数据进行训练,能够预测材料在任何给定原子排列下的能量——而且它们的速度可以比原始的量子方法快数百万倍。

从这个单一的、学到的势函数,可以推导出一系列物理性质。例如,通过计算当我们假设性地压缩或膨胀材料时,其内能和振动频率如何变化,我们可以预测其热膨胀系数——这是任何工程应用中的关键性质。请花一点时间思考一下。从一个只知道原子间如何相互推拉的模型,我们就能预测一块宏观的材料在受热时会如何膨胀。这是从微观到宏观的惊人飞跃,一座完全由计算构建的桥梁。

这些计算工具的力量通过一些巧妙的技术得到放大,这些技术让我们能从每次模拟中榨取最大量的信息。假设我们对一种合金在特定温度和压力下进行了一次昂贵的模拟。我们可能会发现它形成了一种特定的结构。那么在稍有不同的温度下呢?或者如果我们微调其成分呢?我们是否必须重新运行一次全新的模拟?不一定。一种被称为直方图重加权的强大统计方法允许我们取一次模拟的数据,并对其进行重新处理,以预测我们在不同条件下本应看到的情况。这就像在午后的阳光下拍了一张照片,然后通过了解光和影的规律,能够准确预测黄昏时分的景象。这项技术使计算科学家能够从有限的初始模拟中,绘制出材料“相图”的广阔区域——即其在一定温度和压力范围内的行为——极大地加速了寻找具有特定应用所需特性的材料的过程。

自驱动实验室:自动化发现循环

与计算革命相伴的是物理实验室中同样深刻的变革。我们现在正在建造“自驱动实验室”,其中机器人和人工智能不仅是工具,而且是科学过程中的积极伙伴。这些自主系统可以设计实验、进行合成、表征结果,并利用新知识决定下一步该做什么,通常一天24小时无需人工干预地运行。

这一切听起来非常未来主义,但它根植于非常实际,有时甚至是平凡的工程选择。在高通量实验室中,速度就是一切。想象一下,你需要合成数百种不同的候选材料,并且你有两台机器可供选择。一台是大型、高容量的机器,可以同时处理四个样品,但耗时较长。另一台是小型、更快的机器,只能容纳两个样品,但周期很快完成。你应该选择哪一个来最大化一天内你制作的独特组分的数量?这不仅仅关乎容量或研磨速度;它关乎总周期时间——包括装载、设置和清理。通常,小型、更快的机器会胜出,因为其快速的周期时间使其能够在一天内处理更多不同的批次。这个简单的计算突显了高通量科学的一个关键原则:优化整个工作流程是决定发现速度的关键。

现在,谈谈操作的“大脑”。自主实验室不断被其传感器产生的数据淹没——光谱、显微镜图像、反应速率。人工智能如何能实时理解这些信息?它无法承担存储从时间开始以来的每一个数据点,并在每次新测量后重新运行大规模分析的代价。它需要一个“流式”算法。例如,为了追踪一个测量值的变异性,比如反应器中生长的纳米颗粒的大小,人工智能可以使用一种优雅的在线算法来更新运行中的均值和方差。每当有一个新数据点,它仅使用前一个值和新观测值来更新其统计数据,而无需回顾完整的历史记录。这相当于一个敏捷的水手根据最新的阵风调整舵,而不是等待分析整个航程的天气历史。

这种实时分析反馈到人工智能的决策核心。在十亿种可能性中,它如何决定下一步要做哪个实验?它会学习。一种常见的策略是贝叶斯优化。人工智能对哪些合成参数将导致成功保持着一种“信念”,形式为一个概率分布。当它进行一次实验并看到结果——成功或失败——它使用贝叶斯定理来更新其信念。一次成功的实验将增强人工智能对附近参数前景的信念;一次失败则会减弱它。一种流行的方法,汤普森采样,利用这种更新后的信念来指导探索。它从其信念分布中“采样”一个 plausible(貌似可信的)世界模型,然后根据这个样本采取最优行动。这个优美的机制,即上一步的后验信念成为下一步的先验,使人工智能能够平衡一个自然的张力:它必须利用它已经知道是好的区域,但它也必须探索可能潜藏着伟大发现的不确定区域。

通常,人工智能必须处理复杂的、非线性的世界模型。例如,它可能试图通过在不同温度下测量化学反应的速率来确定其活化能。由阿伦尼乌斯方程控制的这种关系是指数型的。为了将新的测量结果纳入其对活化能的信念中,人工智能可以使用一个巧妙的技巧:它在其当前最佳猜测的紧邻区域内用一条直线来近似指数曲线。这种线性化将一个困难的、非线性的问题变成了一个简单的、可解的问题,使其能够以一种简洁的、 解析的方式更新其信念,非常像对一个简单线性模型的更新。这个过程被称为扩展卡尔曼滤波器,是现代机器人学和控制理论的主力,在这里被应用于发现基本化学参数。

当面临一个真正现实的问题时,这种人工智能驱动的策略达到了顶峰:我们几乎从不只想优化一件事。一个好的催化剂不仅必须活性高,还必须随时间推移保持稳定。一种新的太阳能电池材料需要高效,但也要便宜且由丰富的元素制成。我们面临一个多目标优化问题。人工智能如何驾驭这些相互竞争的权衡?它不能简单地找到“最好”的材料,因为“最好”的定义本身就是一种妥协。相反,它的目标是绘制出帕累托前沿——所有最优权衡的集合,在这个集合中,你无法在不使另一个目标变差的情况下改善一个目标。一个名为期望超体积增量(EHVI)的复杂采集函数指导着这个搜索。在每一步,人工智能都会考虑哪个潜在实验预计会为已知良好权衡空间的“体积”带来最大的可能增加。通过智能地管理嘈杂的数据并建议并行运行的实验批次,这种方法提供了一种有原则的方式来探索材料性能复杂、高维的前沿,最终提供的不是一个单一的冠军,而是一整套最优解决方案供人类工程师选择。

经济引擎:策略与资源管理

最后,让我们从单个实验放大到整个发现活动的管理。一个高通量实验室是一项重大投资,有固定的预算和紧迫的时间。每一个关于运行哪个实验的决定也是一个经济决定。

想象一下你有一个固定的预算,你可以把它花在两种类型的实验上。类型1是廉价、快速的计算筛选,但它找到真正“命中”的概率很低。类型2是昂贵、缓慢的实验合成,但它成功的概率要高得多。你应该如何在这两者之间分配你的预算,以最大化你期望找到的“命中”总数?

这个问题的解决方案既简单又深刻。你应该为每种实验类型计算其“性价比”——即成功概率除以成本(p/cp/cp/c)。这个比率代表了每花费一美元你期望得到的“命中”数。最优策略是将你的全部预算投入到具有更高p/cp/cp/c比率的实验类型上。这是一个“全有或全无”的策略。这揭示了任何数据驱动发现项目的一个关键教训:进步不仅仅由实验的复杂性决定,而是由其产生有用信息的效率决定。一个失败率99%的廉价实验,如果其成本比一个成功率50%的昂贵实验低50倍以上,它可能更有价值。这种资源分配原则将材料发现与运筹学和经济学领域联系起来,提醒我们即使在最纯粹的科学中,策略也很重要。

从高熵合金中原子的量子之舞,到研究预算的战略分配,我们看到同样的线索贯穿现代材料发现的织物。这是一个因与基础物理、先进计算、人工智能乃至经济理论的联系而充满活力的领域。通过掌握其原理,我们不仅仅是在寻找新材料;我们正在构建一种新的、更强大、更高效的科学研究方式。