我们真的需要深度图神经网络吗?

云栖号资讯:【点击查看更多行业资讯】
在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来!

今年,图深度学习成为机器学习领域 炙手可热的话题之一。然而H | K l o,那些习惯5 $ s v u于想象卷积神经网络具有数十层甚至数百层的人,如果看到大多数关于图深度学习的工作最多只用了几层的话,他们会不会感到深深的失望呢?“深度图神经网络”一词W F ( D W Y n是否被误用了?我们是否应该套用经典的说法,思考深度是否应该被认为对图的学o 1 F习 是有害的?

训练深度图神经网络是一个难点。除了在深度神经结构中观察到的标准问题(如反向传播中的梯度消失和由于大量参数导致的过拟合)之外,还有一些图特有的问题。其中之一是过度平滑,即应用多N ? ^ u k 9 k X 85 8 z _ 8图卷积层后,节+ r V | p D点特征趋向于同一向量,变得几乎无法区分的现象【1】。这种现象最早是在 GCN 模型【2】【3】中观察到的,其作用类似于低通滤波器【4】。

最近,人们致力于解决图神经网? 4 D S % ~ N络中的深度问题,以期获得更好的性能,或许还能避免在@ $ j * s E e提到只有两层的图神经网络时使用“深度学习”这一术语: k ; & ( v O的尴尬。典型的方法可以分为两大类。首先,使用正则化技术,例如边 dropout(| _ # Q eDropEdge)【5】、节点特征之间的成对距离归一化(PairNorm)【6】,或节点均值和方差归一化(NodeNorm)【7】。其次,架构变化,包括各种类型的残差连接(residual connection),如跳跃知识【8】或仿射残q Y , . V ? 4差连接【9】。虽然这些技术允许训练具有几十层的深度图神经网络(否则很难,甚{ M ) $ + - ( ^ Y至不可能; } @ M _ 9 L 2),但它们未能显示出显著的收益。更糟糕的是,使用深度架构常常会导致性能下降。下表摘自【75 I i P $ 7 @ W】,显示了一个典型的实验评估,比较了不同深度的图神经网络在节点分类任务上的表现:

我们真的需要深度图神经网络吗?

该图; 9 c显示了深度图神经网络结构在 CoauthorsCS 引文网络上的节点分类任务中的典型结果。随着深度的增加,基线(具有残差连接的 GCN)表现不9 i Z q H f r佳,性能从 88I ` L.18% 急剧下降到 39.71%。使用 NodeNorm 技术的架构随着深度的增加表现一直良好。然而,当深度增加时,性能下降(虽然不明显,从 89.53% 下降到/ R ) 87.40%)。总的来说,通过 64 层的深度架构获得的最佳结果(87.40%),逊于简单基线(88.18o r g v ! F%)。另外,还可以观察到 NodeNorm 正则化提高了浅 2 层架构的性能z v & R | j X(从 88.18% 提高到 89M R K z B u n U.53%)。上表摘自【7】(所示为每个类 5F & V 6 S I / o 个标签的情况;该论文中研究的其他设置也表现出了类似的行为)。类似的结果在【5】和其他几篇论文中也有显示。

从这张表中可以看出,要将深度架构带来的优势与训练这样一个神经网络所需的“技巧”区分开来很困难。实际M s U K @ +上,上例中的 NodeNorm 还改进了只有两层的浅层架构,从而达到了最佳性能。因此,在其他条件不变的情况下,更深层次的图神经网络是~ G J i p d 7否会表现得更好,目前尚不清楚。

这些结果显然与传统的网格结构化数据的深度学习形成了& R l F鲜明的对比,在网格结构化数据上,i 4 = Y“超深度”(ultra-deep)架构【[ s i 5 Z / m q10】【11】带来了性能上的突破,并在今天j # + V得到了广泛的使用。在下文中,我将尝试提供一些指导,以期有助回答本文标题提出的“挑衅性”问题。需要注意的是,我本人目前还没有明确的答案。

图的结构 。由于网格是一$ f % c M e种特殊的图,因此,肯定有一些图的例子,在这些图{ i / x Q上,深度是有帮助的。除网格外,表示分子、点云【12】或网片【9】等结构的“几何”图似乎也受益于深度架构。为什么这样的图与通常用于评估图神经网络的引用网络(如 Cora、PubMed 或 CoauthsCS)有如此大的不I Q $ F J同?其中一个区别] x K是,后者类似于具有较^ S y O A 0小直径的“小世界”网络,在这种网络中,人们可以在几跳内从任何其他节点到达任何节点。因此,只有几个卷积层的感受野(receptive field)已经覆盖了整个图【13】,因此,添加更多的层对到达远端节点并没有帮助。另一方面,在计算机视觉中,感受野呈多项式增长,需要许多层来产生一个能捕捉图像中对象的上下文的感受野L W { ] 9 4 _ B【14】。

我们真的需要深度图神经网络吗?

在小世界图(图上V 6 1 k M $ 5)中,只需几跳即可从另一个节点到达任意一个节X d ? | = _点。结果,邻居的数量(以及相应的,图卷积滤波器的感受野)呈指数级快速增长。在这个例子中U 8,从红色节点到每个节点仅需两跳即可(不同的颜色表示将到达相应节点的层,从红色节点开始)。另一方面,在网格(图下),感受野的; t j w G g _ & 0增长是多项式的,因此,需要更多的层才能达到相同的感受野大小。

我们真的需要深度图神经网络吗?

在邻居呈指数级增长的图中(如上图所示)H } [ ! ) - H [ 7,会出现瓶颈现象:来自太多邻居的太多信息必须压缩到单个节点特K K 征向量中。结果,消息无法传播,性能受到影响。

远程问题域短程问题 。一个稍微不同但相T l T - F 6 V q关的区别是,问题需要远程信息还是短程信息。例如,在社交网络中,预测通常只依赖于来自- S % w某个节点本地邻域的短程信息,而不会通过添加远程信息来改善。因此,这类任务可以由浅层 GNN 来执行。另一方面,分子图通常需要远程信息,因为分子的化学性质可能取决于其相对两边原子的组合【15】。要利用这些远程交互,可能需要深度 GNN。但是,如果图的结构导致感受野呈指数级增长,那么瓶颈现象0 M 9 ]就会阻止远程信息的有效传B K P i _ R播,这就解释了为什么深度模型在性能上没有提高【4】。

理论的局限性 。除了一个更大的感受野外,深度架构在计@ : l U . d算机视觉问题上提供的关键优势之一是它们从简单特征组合复杂特征的能力。将 CNN 从人脸图像G X U F 2 R J m 1中学习到的特征进行可视化后,会显示出从简单的几何原语到整个面部结构逐渐变得更加复杂的特征,这表明传说中v Q h 的“ 祖母神 ` ` & _ 9 _经元”更多是真实的,而不是神话。对于图来说,这样的组合似乎是不可能的,例如,无论神经0 h x L网络有多深,都无法从边组成三角形【16】。另一方面,研究表明,如果没有一定的最小深度,使用消息传递网络计算某些图的属性(如图矩)是不可能的【17】。总的来说4 r ( ) n ;,我们目前还不清楚哪些图属性可以用浅层 GNN 表示,哪些需要深度模型,以及哪些图的属性根本无法计算。

我们真的需要深度图神经网络吗?

通过卷积神经网络在L x G e人脸图像上学习特征的示例。请注意,当进入更深的图层时,特征是如何变得越来越复杂的(从简单的几何原语,到面部部分,再到整个人脸)。图片改编自 Matthl g 7 Q l . H mew Stewart 的一篇 博文。

深度E C S R r ]与丰富度 。与底层网格固定的计算机视觉不同,在对图的深度学习中,图的结构D T P确实很重要,并被考虑在内。设计出更为复杂的消息传递机制来解决标准 GNNY B b 无法发现的复杂的高阶信息是有可能的,比如主题【18】或 子结构计数【1t 4 / Z H r b r9】。人们可以选择具有更丰富的多跳滤波器的浅层网络,而不是使用具有简单一a H S跳滤波器的浅层网络。我们最近发表的关于可扩展的初始类图神经网络(SIGN)的论文,通过将单层线性图卷积架构与多个预计算滤波器结合使用,将这一想法发挥到了极致。我们展示的性能可以c J F u X % Q F与更复杂的模型相~ V & E 5 o t B M媲美,而它们的时间复杂度仅为后者的一小部分【20】。有趣的是,计算机视觉走的是相反的道路:早期具有大(最% X } | + D n % w大 11x11)滤波器的浅层 CNN 架构,如 AlexQ { d X { H M .Net ,被具有小(通常为 3x3)滤波器的非常深的架构所取代。

评估 。最后但并非不重要的是,图神经网络的主要评估方法受到了 Oleksandr Shchur 和 Steph4 C } & ^ ~ Y Pan Gnnemann【21】小组同事的严厉批评,他们提请人们注意常用基准的缺陷,并表明,如果在公平的环境下进行评估,简单模型的表现可与更复杂的模型相媲美。我们? . 8 H v o观察到的一K B 4 f 6些深度架构的现象,例如,性能随深度而下降,可能仅仅是源于对小数据集的过拟合所致。? [ l +新的 Open Graph Beni k 2 % ? Ochmark 解决了其中的I 2 e O W @ @ x 一些问题,提供了非常大的图,并进行了严格的训练和测试数据分割。我认为,我们还需要进行一些精心设计的特定实验,以便更好地理解深度在图深度学习是否有用,以及何时有用。

【云栖u = ( (号在线课堂】每天都有产品技术专家分享!
课程地址:https://yqh7 N ! _ q H.aliyun.com/zhibo

立即加入社群] = b S D F p 1 n,与专家面对面,及时了U + c 5 o } 6 7 l解课程最新动态!
【云栖号在线课堂 社群】https://c.tbL a i i p.cn/F3.Z8gvnK

原文发布时间:2i ! A M y020-07-29
本文作者:Michael Bronstein
本文来自# K A * T l T:“InfoQ”,了解相a 3 # 5 n * l m 8关信息可以关注“r v kInfo6 y ) ) = 7 -Q”