try ai
科普
编辑
分享
反馈
  • 图信号处理

图信号处理

SciencePedia玻尔百科
核心要点
  • 图拉普拉斯算子在数学上捕捉了网络上的局部交互,是衡量信号在图上平滑程度的基本指标。
  • 图傅里叶变换(GFT)将图上的任何信号分解为一组基本“谐波”(特征向量),从而实现了基于频率的分析和滤波。
  • 图拉普拉斯算子的谱(特征值)揭示了关于网络拓扑结构的深刻见解,例如其连通性和社群组织。
  • GSP 通过操纵信号在图上的频率分量,为信号去噪、数据插值和特征提取等任务提供了实用的工具。

引言

在一个日益由网络定义的世界中——从社交连接、通信网格到生物通路——我们面临一个根本性的挑战:如何分析那些并非存在于简单、规则网格上的数据?传统信号处理在处理时间序列或图像数据方面表现出色,但当底层结构复杂且不规则时,其工具便会失效。这种差距催生了一种新的范式,用于理解定义在图上的信号,这种范式内在地尊重数据中错综复杂的关系网络。

图信号处理(GSP)正是作为一个强大的框架应运而生,它提供了一种有原则的方法,将频率、滤波和变换等概念扩展到网络数据上。本文旨在介绍这一激动人心的领域,引导您从其核心数学思想走向其在现实世界中的影响。首先,在​​原理与机制​​一章中,我们将探讨GSP的核心:图拉普拉斯算子、图频率的概念,以及网络的“谱”揭示了其内在结构的哪些信息。然后,在​​应用与跨学科联系​​一章中,我们将连接理论与实践,展示这些原理如何应用于解决具体问题,如数据去噪、插值缺失值以及驱动现代机器学习模型。

原理与机制

想象一下,你正站在一个巨大、回声缭绕的房间里。如果你拍手,传回你耳朵的声音不仅仅是拍手声本身,而是被这个房间改造过的拍手声。墙壁的形状、它们的材质、到天花板的距离——所有这些物理属性都编码在回声和混响之中。这个房间有它自己独特的声学频率,它自己的共鸣之声。

现在,想象这个“房间”不是一个物理空间,而是一个网络:一个社交网络、一个气象站网格、一个细胞内蛋白质之间的连接。而“信号”也不是声音,而是存在于该网络上的一组数值——观点、温度、蛋白质浓度。图信号处理(GSP)就是理解网络的结构如何塑造其上信号的艺术与科学。它为我们提供了一种方法,去聆听图上数据的“声音”,去理解其“谐波”,甚至去“滤波”它,以放大重要的部分并抑制噪声。

在本章中,我们将踏上一段旅程,揭示使这一切成为可能的基本原理。我们不会迷失在方程的丛林中,而是像一位探索新现象的物理学家一样,从几个简单、直观的思想出发,建立我们的理解。

交互的核心:图拉普拉斯算子

让我们从最基本的问题开始:如果一个信号是网络上一组数值的集合,这些数值是如何相互作用的?想象一个测量温度的传感器网络。很自然地可以假设,一个传感器的温度最直接地受到其近邻的影响。一个热点会倾向于加热其较冷的邻居,而一个冷点会冷却其较暖的邻居。这种流动,这种“交换”,是由差异驱动的。如果两个相连的传感器温度相同,它们之间就没有热量流动。差异越大,流动越强。

这个简单的物理直觉是GSP的基石。让我们稍微形式化一下。对于图中任意节点 iii,其信号值的净变化,我们称之为 yiy_iyi​,是其与所有邻居交换的总和。与邻居 jjj 的交换量与它们的信号值之差 (xi−xj)(x_i - x_j)(xi​−xj​) 成正比,并由它们连接的强度(我们称之为 aija_{ij}aij​)加权。对一个节点 iii 的所有可能邻居 jjj 求和,我们得到:

yi=∑j=1naij(xi−xj)y_i = \sum_{j=1}^n a_{ij} (x_i - x_j)yi​=j=1∑n​aij​(xi​−xj​)

这个表达式完美地捕捉了我们的直觉。它是局部的(只与邻居有关),它基于差异,并且如果信号处处恒定(对于所有邻居,xi=xjx_i = x_jxi​=xj​),净交换为零,正如其所应是。

现在,通过一些代数变换,这个简单的表达式揭示了一些非凡的东西。我们可以将其重写为:

yi=(∑j=1naij)xi−∑j=1naijxjy_i = \left(\sum_{j=1}^n a_{ij}\right) x_i - \sum_{j=1}^n a_{ij} x_jyi​=(j=1∑n​aij​)xi​−j=1∑n​aij​xj​

第一部分 ∑j=1naij\sum_{j=1}^n a_{ij}∑j=1n​aij​ 正是节点 iii 的所有连接权重的总和——我们称之为它的​​度​​,did_idi​。它代表了该节点局部连接的总强度。第二部分 ∑j=1naijxj\sum_{j=1}^n a_{ij} x_j∑j=1n​aij​xj​ 是其邻居信号值的加权平均。

如果我们用矩阵表示法一次性为所有节点写出这个式子,会得到一个优美而紧凑的形式:

y=(D−A)x\mathbf{y} = (D - A) \mathbf{x}y=(D−A)x

在这里,x\mathbf{x}x 是所有信号值的向量,AAA 是​​邻接矩阵​​(包含权重 aija_{ij}aij​),DDD 是对角​​度矩阵​​(对角线上是度 did_idi​)。这个算子 L=D−AL = D - AL=D−A 被称为​​组合图拉普拉斯算子​​,它是图信号处理中所有内容的核心对象。它是局部、基于差异的交互的数学化身。它是驱动网络上传播、共识和无数其他过程的引擎。

拉普拉斯算子给我们一个单一的数字来量化一个信号在图上的“平滑”程度。这通过一个称为​​总变差​​或​​狄利克雷能量​​的量来衡量。它的计算公式为 Ediff(x)=x⊤LxE_{\text{diff}}(\mathbf{x}) = \mathbf{x}^\top L \mathbf{x}Ediff​(x)=x⊤Lx,奇妙的是,这恰好是所有边上平方差的总和:

x⊤Lx=∑(i,j)∈Eaij(xi−xj)2\mathbf{x}^\top L \mathbf{x} = \sum_{(i,j) \in E} a_{ij} (x_i - x_j)^2x⊤Lx=(i,j)∈E∑​aij​(xi​−xj​)2

一个完全平滑的信号(即处处恒定)对所有点对都有 xi=xjx_i = x_jxi​=xj​,其总变差为零。一个在邻居之间剧烈波动的信号将具有非常高的总变差。拉普拉斯算子,源于一个简单的局部交换思想,自然而然地成为了信号平滑度的度量。

图之谱:网络的谐波

正如吉他弦有一组它倾向于振动的自然频率——基音及其泛音——图也有一组自然的“振动模式”。这些是信号在网络结构上可以表现出的基本变化模式。我们如何找到它们呢?通过研究图拉普拉斯算子的​​特征向量​​和​​特征值​​。

拉普拉斯算子的特征向量构成了一组特殊的信号。当你将拉普拉斯算子 LLL 应用于它的一个特征向量 ui\mathbf{u}_iui​ 时,你不会得到一个新的、复杂的信号。你会得到同一个特征向量,只是被一个数字 λi\lambda_iλi​(其对应的特征值)缩放了:Lui=λiuiL\mathbf{u}_i = \lambda_i \mathbf{u}_iLui​=λi​ui​。

这些特征向量是图的“谐波”。它们是图上任何信号的构建基块,就像正弦和余弦波是任何经典信号的构建基块一样。这就是​​图傅里叶变换(GFT)​​。任何信号 x\mathbf{x}x 都可以表示为这些图谐波的加权和。

特征值 λi\lambda_iλi​ 告诉我们关于它们对应的谐波 ui\mathbf{u}_iui​ 的一些关键信息。记住 ui⊤Lui=λi(ui⊤ui)\mathbf{u}_i^\top L \mathbf{u}_i = \lambda_i (\mathbf{u}_i^\top \mathbf{u}_i)ui⊤​Lui​=λi​(ui⊤​ui​)。左边是总变差。所以,特征值 λi\lambda_iλi​ 是其特征向量 ui\mathbf{u}_iui​ 平滑或振荡程度的直接度量。

  • 最小的特征值总是 λ1=0\lambda_1 = 0λ1​=0。其特征向量是常数信号,其中所有节点具有相同的值。这是最“平滑”的可能信号,变差为零。它是图的“直流分量”。
  • 具有小的、非零特征值的特征向量是“低频”。它们是平滑的信号,在图上缓慢变化,尊重社群结构。
  • 具有大特征值的特征向量是“高频”。它们是高度振荡的信号,从一个节点到另一个节点迅速变化,甚至在相邻节点之间也可能剧烈变化。

这种谱的观点——将信号分解为其图频率分量——非常强大。它将问题从复杂、不规则的“顶点域”转换到清晰、有序的“谱域”。

听图之形:谱揭示了什么

故事在这里变得真正美妙起来。拉普拉斯算子的谱不仅仅是一个抽象的数学奇观。它是图的物理结构的深刻反映。在非常真实的意义上,特征值就是图形状的声音。

考虑第二小的特征值 λ2\lambda_2λ2​。对于一个连通图,这个特征值,被称为​​代数连通度​​,告诉我们图的“编织”得有多好。它的值由网络中最严重的“瓶颈”决定。

λ2=min⁡x≠0, x⊥1x⊤Lxx⊤x=min⁡x≠0, x⊥1∑(i,j)∈Eaij(xi−xj)2∑ixi2\lambda_2 = \min_{\mathbf{x} \neq \mathbf{0}, \, \mathbf{x} \perp \mathbf{1}} \frac{\mathbf{x}^\top L \mathbf{x}}{\mathbf{x}^\top \mathbf{x}} = \min_{\mathbf{x} \neq \mathbf{0}, \, \mathbf{x} \perp \mathbf{1}} \frac{\sum_{(i,j) \in E} a_{ij} (x_i - x_j)^2}{\sum_i x_i^2}λ2​=x=0,x⊥1min​x⊤xx⊤Lx​=x=0,x⊥1min​∑i​xi2​∑(i,j)∈E​aij​(xi​−xj​)2​

这个看起来吓人的公式揭示了一个简单的真理。为了使 λ2\lambda_2λ2​ 变小,我们需要找到一个(非恒定的)信号 x\mathbf{x}x,使其总变差尽可能小。你会如何构造这样一个信号?你会将图的节点分成两组,比如 S1S_1S1​ 和 S2S_2S2​,它们之间只有很少的连接。然后你会给 S1S_1S1​ 中的所有节点赋一个值,给 S2S_2S2​ 中的所有节点赋另一个值。差值 (xi−xj)(x_i - x_j)(xi​−xj​) 对于集合内部的边将为零,仅对于集合之间的少数边非零。如果这个切割很稀疏,总变差将非常小,因此 λ2\lambda_2λ2​ 也会很小。

所以,一个小的 λ2\lambda_2λ2​ 是网络瓶颈的确凿证据——一条连接两个原本密集的社群的脆弱桥梁。一个大的 λ2\lambda_2λ2​ 意味着图的连接很鲁棒,没有明显的弱点。一个矩阵的抽象特征值正在告诉我们关于我们网络拓扑的具体事实!

图滤波:用谱域雕塑塑造信号

一旦我们可以将信号分解为其图频率,我们就可以操纵它们。这就是​​图滤波​​。在经典信号处理中,我们可能使用低通滤波器来通过衰减高频来平滑嘈杂的音频信号。我们可以在图上做完全相同的事情。

一个​​线性、移不变的图滤波器​​被定义为拉普拉斯算子的一个函数,h(L)h(L)h(L)。在谱域中,这非常简单:滤波意味着将每个频率分量乘以一个由其对应特征值决定的值。如果信号 x\mathbf{x}x 的GFT是 x^\hat{\mathbf{x}}x^,则滤波后的信号 y\mathbf{y}y 的GFT是 y^i=h(λi)x^i\hat{\mathbf{y}}_i = h(\lambda_i) \hat{\mathbf{x}}_iy^​i​=h(λi​)x^i​。

  • ​​低通滤波器​​使用一个函数 h(λ)h(\lambda)h(λ),对于小的 λ\lambdaλ 值大,对于大的 λ\lambdaλ 值小。这保留了平滑分量,移除了嘈杂、振荡的分量,从而有效地对信号进行去噪或平滑。
  • ​​高通滤波器​​则相反,它增强信号中的急剧差异和边缘。

现在,出现了一个关键的微妙之处。什么使一个过程成为一个“真正”的滤波器?它必须是​​移不变的​​,意味着它在图的任何地方都以相同的方式作用。在GSP中,这转化为滤波器算子 HHH 必须与图移位算子(例如,邻接矩阵 SSS 或拉普拉斯算子 LLL)可交换,即 HS=SHHS = SHHS=SH。任何可以写成 SSS(或 LLL)的多项式的算子都将具有此属性。

但并非所有“局部”算子都是移不变的。考虑这样一个算子,它简单地将每个节点的信号值乘以该节点的度。这是一个纯粹的局部、“0跳”操作。然而,它不是一个移不变的滤波器。一个中心的、高度数的节点与一个外围的、低度数的节点的处理方式非常不同。此操作与图移位算子不可交换。这一区别至关重要:真正的图滤波器是由其相对于图结构的一致作用定义的,而不仅仅是其局部性。

聆听的局限:当不同图听起来相同时

我们已经看到,拉普拉斯算子的谱揭示了图的大量结构信息。这引发了数学家 Mark Kac 提出了一个著名的问题:“一个人能听出鼓的形状吗?”用我们的语言来说:如果你知道一个图的所有自然频率(特征值),你能唯一地确定它的结构吗?

答案惊人地是,不能。

存在着​​共谱但非同构​​的图对。它们的结构不同——你无法通过重新排列一个图的节点来得到另一个图——但它们产生完全相同的拉普拉斯特征值集。它们“听起来”相同,但它们的“形状”不同。

这对我们意味着什么?这意味着任何只依赖于拉普拉斯算子特征值的GSP方法都无法区分这两种不同的网络结构。滤波器的频率响应、处理后信号的总能量,或者扩散的速率——如果这些量只依赖于特征值,那么它们在两个共谱非同构图上将是相同的。谱是一个强大的描述符,但它不是一个唯一的指纹。完整的故事写在特征值(频率)和特征向量(模式的形状)中,而对于非同构图,后者是不同的。

走向荒野:超越简单的整洁图

到目前为止,我们的旅程发生在一个相对温和的世界——无向图,其中从 iii到 jjj 的连接意味着从 jjj 到 iii 存在相同强度的连接。这产生了一个优美、对称的拉普拉斯矩阵,具有实数特征值和一组整洁、正交的特征向量,其行为就像经典的傅里叶基。

但许多现实世界的网络并非如此整洁。想想万维网(页面相互链接,但并不总是反向链接)、引文网络或新陈代谢通路。这些都是​​有向图​​。在这里,简单的定义 L=D−AL=D-AL=D−A不再产生一个对称矩阵。那些令人安心的属性开始消失。特征向量可能不再正交,图傅里叶变换可能不保持能量——这个概念被称为非正规性。

为了恢复秩序,我们需要更复杂的工具。例如,要为有向图定义一个有意义的“拉普拉斯算子”,通常需要考虑网络上随机游走的动力学。游走者在给定节点上被发现的长期概率——其​​平稳分布​​——成为构建一个能够正确捕捉图的有向流动的对称、有意义的算子的关键成分。

此外,当我们处理拥有数十亿个节点的庞大真实世界网络时,计算完整的谱变得不可能。在这里,谱的观点提供了另一个礼物:​​图粗化​​。通过关注捕捉大规模结构的低频模式,我们可以设计方法来创建一个更小、更“粗糙”的图版本,同时保留其基本的谱特性。这就像为一幅巨大的图像创建一个低分辨率的缩略图,让我们能够分析森林而不会迷失在树木之中。

GSP的原理在图的离散、组合世界与谐波分析的丰富、连续世界之间架起了一座桥梁。通过学习“聆听”网络上的信号,我们获得了一个强大的新视角,来理解、分析和操纵定义我们世界的互联系统。

应用与跨学科联系

在遍历了图信号处理的基本原理之后,您可能会问一个完全合理的问题:“这些都是优美的数学,但它究竟是用来做什么的?” 这是一个极好的问题。一个科学框架的真正美妙之处不仅在于其内部的一致性,还在于其描述、预测和操纵我们周围世界的力量。图信号、傅里叶变换和谱算子的机制不仅仅是一个抽象的奇观;它是一个强大而多功能的工具包。它使我们能够塑造数据,揭示隐藏的模式,并解决在初看起来似乎毫无共同之处的领域中的实际问题。

在本章中,我们将探讨其实用的一面。我们将看到我们所发展的概念如何成为工程师、数据科学家和研究人员的工作工具。我们将从“是什么”转向“怎么做”,并在此过程中发现,图信号处理的语言为广阔的现代挑战图景提供了一个统一的视角。

塑造图上信号:滤波的艺术

经典信号处理中最基本的操作之一是滤波。音频工程师使用均衡器来消除不必要的噪声或增强低音,选择性地放大或抑制某些频率。我们能为图上的信号做类似的事情吗?答案是肯定的,并且这开启了一个充满可能性的世界。

正如我们所见,图的“频率”是其拉普拉斯矩阵 LLL 的特征值。低频对应于平滑、缓慢变化的信号分量,而高频对应于尖锐、嘈杂或振荡的分量。图滤波器就是一个根据这些图频率修改信号分量的函数。

假设我们想设计一个“低通”滤波器——一个保留信号平滑部分并去除嘈杂高频部分的滤波器。我们该如何构建它?一个实用的方法是定义一个理想的频率响应——比如,一个对低频为 111、对高频为 000 的函数——然后构造一个近似这个理想的滤波器。一个常见且计算上友好的选择是多项式滤波器,其中滤波器的作用由一个拉普拉斯算子的多项式定义,H=c0I+c1L+c2L2+…H = c_0 I + c_1 L + c_2 L^2 + \dotsH=c0​I+c1​L+c2​L2+…。任务随之变成一个经典的优化问题:找到系数 ckc_kck​,使得我们的多项式在图的谱上最好地匹配理想响应。这个过程是图滤波器设计的核心,允许我们为任意数量的任务创建定制工具,从清理嘈杂数据到突出网络内的特定结构模式。

一类特别优雅且直观的低通滤波器源于对扩散的思考。想象一下,将一滴墨水滴入一盘水中。墨水扩散开来,其锐利的边缘变得模糊,浓度随着时间的推移变得更加平滑。这个过程,即热扩散,是一个自然的低通滤波器。在图上,我们可以模拟完全相同的过程。图热核,数学上表示为 H(t)=exp⁡(−tL)H(t) = \exp(-tL)H(t)=exp(−tL),精确地描述了信号(或“热量”)在“时间” ttt 内如何在图的节点间扩散。应用这个滤波器等同于让信号通过沿图的边流动来自我平滑。

这在去噪方面有一个优美的应用。如果我们有一个有意义的信号被随机的高频噪声所污染,我们可以应用热核滤波器来“扩散掉”噪声,留下更平滑的底层信号。但这引出了一个关键问题:我们应该让扩散运行多久?时间太短(ttt 很小),噪声仍然存在。时间太长(ttt 很大),我们不仅模糊掉了噪声,也模糊掉了原始信号的重要特征。挑战在于找到那个“甜蜜点”。这可以被构建为一个优化问题,我们寻求时间 ttt 以最小化一个成本函数,平衡匹配噪声观测的愿望与过度滤波的惩罚。这是经典偏差-方差权衡的一个具体例子,而GSP为我们提供了一种有原则的方法来驾驭它。

填补空白:插值与重构

在许多现实世界的场景中,我们的数据是不完整的。我们可能只拥有一个大型网络中一小部分传感器的温度读数,或者一个用户对浩瀚片库中少数几部电影的评分。我们能否对缺失的值做出有根据的猜测?这就是插值问题,GSP为此提供了一个强大的框架。

关键的见解是我们从经典信号处理中借鉴并推广的一个概念:带限性。如果一个图上信号的能量集中在图的低频模式中——也就是说,如果它本质上是平滑的——那么这个信号就被认为是“带限”的。如果我们能假设真实的、完整的信号具有这个属性,我们就可以用最符合这一假设的方式来“填补”缺失的值。

实现这一点的一个优美方法类似于经典信号中的上采样。我们从一个在节点小子集上已知的信号开始。我们可以对这个部分信号进行图傅里叶变换。然后,为了将其插值到更大的图上,我们只需用零来“填充”这个谱,用于大图中所有新的、更高频率的模式。最后,我们在大图上进行逆GFT。结果是在大图上最平滑的可能信号,且该信号在小子集上与已知值完全匹配。这个过程,常被称为“图傅里叶补零”,是一种通过假设底层结构是平滑的来推断缺失数据的有原则的方法,这在许多领域都是一个非常有效的启发式方法。

解决这类“逆问题”——即我们希望从嘈杂或不完整的测量中恢复真实信号——的一个更通用的方法是Tikhonov正则化。其思想是寻找一个信号 xxx,它同时满足两个标准:首先,它应该接近我们的观测值 yyy(保真项,∥x−y∥2\|x - y\|^2∥x−y∥2),其次,它应该是“行为良好”或平滑的(正则化项)。

图信号处理为我们提供了定义平滑度的完美工具:拉普拉斯二次型,xTLxx^T L xxTLx,我们知道,它衡量了信号在图的边上的总变差。完整的优化问题变成最小化 J(x)=∥x−y∥2+αxTLxJ(x) = \|x - y\|^2 + \alpha x^T L xJ(x)=∥x−y∥2+αxTLx,其中参数 α\alphaα 控制了拟合数据和强制平滑之间的权衡。通过解决这个问题,我们可以有效地对信号进行去噪或重构缺失数据。现代方法甚至通过使用分数阶拉普拉斯算子 LsL^sLs 来扩展这一点,它提供了一种更灵活、更强大的方式来定义和惩罚非平滑性,使我们能够根据问题的具体特性来调整正则化。

付诸实践:规模的挑战

在这一点上,一个务实的人可能会提出异议。所有这些奇妙的谱方法——GFT、谱滤波、特征分解——似乎都依赖于对图拉普拉斯算子进行对角化。对于一个有 NNN 个节点的图,这大约需要 O(N3)O(N^3)O(N3) 次操作。对于我们一直在讨论的小型、说明性的图来说,这没问题,但对于一个拥有百万用户的社交网络,或者一个拥有数万个节点的脑连接组呢?计算完整的特征分解在计算上是不可能的。这是否意味着GSP对于大规模应用来说仅仅是一个理论上的梦想?

幸运的是,得益于一些巧妙的应用数学,答案是否定的。关键在于我们通常不需要明确地知道特征值和特征向量。我们只需要能够应用我们的滤波器。许多最有用的滤波器可以被表示或近似为拉普拉斯算子的多项式。事实证明,有非常高效的方法来计算矩阵多项式作用于向量的运算,y=(∑kckLk)xy = (\sum_k c_k L^k) xy=(∑k​ck​Lk)x,而无需显式地构建 LkL^kLk 的幂。

其中一种最强大的技术是使用切比雪夫多项式基。任何合理的滤波器函数都可以通过一个缩放后的拉普拉斯算子 L~\tilde{L}L~ 的切比雪夫多项式之和来近似。切比雪夫多项式的魔力在于它们的三项递推关系。这种关系使我们能够通过一系列简单、迭代的步骤来计算滤波器对信号 xxx 的作用。每一步只涉及将(通常是稀疏的)拉普拉斯矩阵应用于一个向量——这是一个计算上廉价且易于分发或并行化的操作。这种方法完全绕过了 O(N3)O(N^3)O(N3) 的对角化需求,使得将复杂的图滤波器应用于大规模真实世界网络成为可能。从理论到可扩展实践的这一飞跃,正是使GSP成为一项真正可行的技术的原因。

学科的交响曲

我们所触及的应用——滤波、去噪、插值和高效实现——仅仅是个开始。图信号处理的真正力量在于它作为一种统一语言的角色,连接了广泛的领域。

  • ​​机器学习:​​ GSP中开创的图卷积概念,构成了现代图神经网络(GNNs)的理论基石,GNNs已经彻底改变了在结构化数据上的学习。半监督学习,即我们只有少数数据点的标签,可以被看作是在一个图上的插值问题,其中节点是数据点,边代表它们的相似性。

  • ​​计算机图形学与视觉:​​ 一个3D网格模型就是一个图。GSP提供了以几何上有意义的方式对这些形状进行平滑、锐化、分割和分析的工具。

  • ​​神经科学:​​ 大脑是一个由神经元和区域组成的复杂网络。fMRI和EEG数据可以被建模为脑连接图上的信号。GSP帮助神经科学家过滤这些数据,以分离与特定任务或疾病相关的脑活动模式,并理解信息如何在大脑网络中流动。

  • ​​传感器网络和交通运输:​​ 来自地理上分布的传感器的数据或城市中的交通流可以被建模为图上的信号。GSP提供了清理这些数据、检测异常(如故障传感器或交通堵塞)和插值缺失测量值的方法。

从机器学习中最深层的问题到大规模网络的工程挑战,图信号处理的原理提供了一个共同的基础。通过图的视角看待数据,我们解锁了一种强大的思维方式——一种尊重数据底层结构和关系的方式,使我们能够以全新的清晰度和精确度来理解和塑造我们的世界。