圖神經網絡的表達能力與Weisfeiler-Lehman測試

2021-02-08 AI前線
你有沒有這樣的一種感覺,圖深度學習就是一堆啟發式的東西,有時會起作用,但沒有人知道為什麼。在本文中,我討論了圖同構問題,圖同構測試的 Weisfeiler-Lehman 啟發式,以及如何用它來分析圖神經網絡的表達能力。這是關於圖神經網絡表達能力的系列三篇文章中的第一篇。在第二部分中,我將討論如何脫離 Weisfeiler-Lehman 層次結構;在第三部分中,我將建議為什麼重溫整個圖同構框架可能是個好主意。

本文最初發表在 TowardsDataScience 博客,經原作者 Michael Bronstein 授權,InfoQ 中文站翻譯並分享。

前文回顧:《圖深度學習:成果、挑戰與未來》

傳統的前饋網絡(多層感知器)是已知的通用逼近器:它們可以將任何平滑函數近似到任何所需的精度。對於相對最近才出現的圖神經網絡,其表示特性還不是很了解。人們在實驗中經常會觀察到,圖神經網絡在某些數據集上表現出色,但同時在其他數據集上的表現卻令人失望。為找到這種行為的根源,我們必須回答這樣一個問題:圖神經網絡有多強大?

其中挑戰之一是,應用程式中遇到的圖是亂序和離散結構(分別是節點和邊緣特徵以及連通性)的組合,因此,這個問題可以用不同的方式提出。一種可能的表述是圖神經網絡是否能夠區分不同類型的圖結構。這是圖論中的一個經典問題,稱為圖同構問題,目的是確定兩個圖在拓撲上是否等價【1】。兩個同構圖具有相同的連通性,不同之處只是它們節點的排列。

令人驚訝的是,圖同構問題的精確複雜度類別是未知的。我們不知道它在 多項式時間 內是可解的,也不知道它是 NP 完全( NP-complete)的,有時被歸因於一種特殊的「GI 類」【2】

Weisfeiler-Lehman 測試。Boris Weisfeiler 和 Andrey Lehman【3】在 1968 年發表的具有開創性意義的論文中提出了一種有效的啟發式方法,即 Weisfeiler-Lehman 測試。最初被認為是圖同構問題的多項式時間解【4】。一年後發現了一個反例;然而,從概率意義上看,Weisfeiler-Lehman 測試似乎適用於幾乎所有的圖【5】。

對兩個同構圖上執行 Weisfeiler-Lehman 測試的示例。花括號表示多組。算法在顏色不變後停止,並生成輸出(顏色直方圖)。這兩個圖的輸入相等表明它們可能是同構的。

Weisfeiler-Lehman 測試基於迭代圖重新著色【6】(圖論中的「顏色」是指一個離散節點標籤),並從所有顏色相同的節點開始。在每一步中,該算法將節點及其鄰域的顏色聚合為多集【7】,並將聚合的顏色多集散列為唯一的新顏色。當達到穩定的著色時,算法即停止。如果在這一點上兩個圖的著色不同,則認為這兩個圖是非同構的。但是,如果著色是相同的,這些圖可能(但不一定)是同構的。換句話說,Weisfeiler-Lehman 測試是圖同構的一個必要但不充分的條件。有一些非同構圖的 Weifeiler-Lehman 測試可以產生相同的著色,因此認為它們「可能是同構的」;據說在這種情況下,測試失敗了。下圖就顯示了一個這樣的例子:

Weisfeiler-Lehman 圖同構測試失敗的兩個非同構圖,從它產生的相同著色可以明顯看出。在化學中,這些圖代表兩種不同化合物的分子結構,十氫化萘(左)和雙環戊基(右)。圖摘自【14】。

圖同構網絡。Keyulu Xu【9】和 Christopher Morris【10】(至少在兩年前,Thomas Kipf 在他的 博客 中曾提到)注意到,Weisfeiler-Lehman 測試與圖消息傳遞神經網絡【8】有著驚人的相似之處,後者是一種對圖進行類似卷積運算的方式。在消息傳遞層中,通過聚合相鄰節點的特徵來更新每個節點的特徵。聚合和更新操作的選擇至關重要:只有多集內射函數才能使其等同於 Weisfeiler-Lehman 算法。一些文獻中常用的聚合器選擇,例如,最大值或均值,實際上嚴格來說沒有 Weisfeiler-Lehman 強大,並且無法區分非常簡單的圖結構:

圖結構的示例,不能用最大值來區分,但可以用均值聚合器(第一和第二)來區分,並且既不能用最大值也不能用均值(第一和第三)來區分。原因在於,以這種方式從黑色節點的鄰居聚合的特徵將是相同的。圖改編自【9】。

Xu 提出了一種聚合和更新函數的選擇,使消息傳遞神經網絡與 Weisfeiler-Lehman 算法等價,稱之為圖同構網絡(Graph Isomorphism Networks,GIN)。這和標準的消息傳遞神經網絡一樣強大。但是,比起一個新的架構,主要的影響是在一個簡單的設置中系形成表達能力的問題,這可能與圖論中的一個景點問題有關。這一想法已經激發了許多後續研究。

Weisfeiler-Lehman 層次結構。對 Xu 和 Morris 的結果進行擴展的一個方向是使用更強大的圖同構測試。由 László Baba 提出的 k-WL 測試是 Weisfeiler-Lehman 算法的高階擴展,該算法適用於 k 元組而不是單個節點。除了等價的 1-WL 和 2-WL 測試之外,對於任何 k≥2,(k+1)-WL 嚴格強於 k-WL,即存在 k-WL 失敗而 (k+1)-WL 成功的圖的例子,但反之則不然。因此,k-WL 是一個層次結構或越來越強大的圖同構測試,有時被稱為 Weisfeiler-Lehman 層次結構【10】。

設計遵循 k-WL 測試的圖神經網絡是可能的,因此嚴格來說,比消息傳遞架構更強大。其中一個這樣的第一個架構,k-GNN,是由 Morris【11】提出的。傳統消息傳遞神經網絡和高階 GNN 之間的關鍵區別在於它們是非局部的,因為 k-WL 算法是在節點的 k 元組上進行操作的。這對算法的實現及其計算和內存複雜性都有重要的影響:k-GNN 需要 𝒪(nᵏ) 內存。作為一種降低複雜性的方法,Morris 設計了一種基於局部鄰域聚集的 k-GNN 局部版本,但它的表現能力不如 k-WL。

在 2019 年 9 月,我有幸參與了 Haggai Maron 在魏茨曼科學研究學院(Weizmann Institute) 的博士論文答辯,他提出了略有不同的高階圖架構。Maron 基於 k 階張量【12】定義了一類不變圖網絡(Invariant Graph Network,IGN),並證明了它們與 k-WL 一樣強大。IGN 源自 k-WL 的不同變體【10】,並且就其複雜性而言,與 k-GNN 相比更有優勢。尤其是,等價於 3-WL 的 IGN「只有」二次元的複雜度,這可能是唯一一種實用的圖神經網絡架構,嚴格的說,它比消息傳遞更強大,但與前者的線性複雜度仍相去甚遠【16】。

從理論的角度來看,可證明功能強大的圖神經網絡提供了一個嚴格的數學框架,可以幫助解釋和比較不同的算法。已經有很多後續工作使用圖論和分布式局部算法的方法擴展了這些結果【14】。

然而,從實踐的角度來看,這些新的架構幾乎沒有什麼重大影響:例如,最新的基準測試【15】表明,最近被證明功能強大的算法實際上性能並不如舊的技術。這在機器學習中並不少見,因為理論和實踐之間往往存在很大差距。其中一個解釋可能是基準本身的缺陷。但也許更為深刻的原因是,更好的表達能力並不一定提供更好的泛化(有時恰恰相反),此外,圖同構模型可能無法正確地捕捉特定應用程式中圖相似性的實際概念,我想在下一篇文章中討論這一點。可以肯定的是,這一領域的研究工作是卓有成效的,它為其他學科搭建了橋梁,並帶來了以前在圖深度學習領域未使用過的方法。

【1】 即在兩個圖的節點之間存在一個保邊雙射(edge-preserving bijection)。

【2】 因此,圖同構可能是 NP- 中間 複雜度類。對於一些特殊的圖族(如樹、平面圖或有界最大度圖),存在多項式時間算法。

【3】 《圖的標準型化簡及其代數》(The reduction of a graph to canonical form and the algebra which appears therein),B. Weisfeiler、A. Lehman,1968 年,Nauchno-Technicheskaya Informatsia 2(9):12–16。英文版、俄文版:文中包含了一個雙關語,以一種不尋常的西裡爾字母(Операция „Ы「)的形式出現,指的是三年前 前蘇聯的同名電影。另請參閱這篇博文中一個流行的論述。Lehman 有時也被拼寫成「Leman」,然而,鑑於這個姓氏的日耳曼起源,我更喜歡前者更準確的變體。

【4】 I. Ponomarenko,Weisfeiler Lehman 寫的原始論文。提供了這篇經典論文的歷史背景。他指出,這項研究的動機來自於化學應用。

【5】 《隨機圖同構》(Random graph isomorphism),L. Babai 等人,1980 年,SIAM J. Computing 9(3):628–635。

【6】 Weisfeiler 和 Lehman 的原始論文實際上描述了 2-WL 變體,但它等價於 1-WL,也被稱為色彩細化算法。作為一個歷史性的注釋,這樣的算法早在 20 世紀計算化學中就已為人所知,參見 H.L.Morgan。《為化學結構生成獨特的機器描述——化學文摘社(Chemical Abstracts Service,CAS)開發的一種技術》(The generation of a unique machine description for chemical structures — a technique developed at chemical abstracts service ),1965 年, J. Chem,Doc. 5(2):107–113,這是摩根分子指紋在化學中廣泛應用的基礎。

【7】 多集是一個集合,其中,同一個元素可能出現多次,但元素的順序並不重要。

【8】 《量子化學中的神經信息傳遞》(Neural message passing for quantum chemistry),Gilmer 等人,2017 年,Proc. ICML。

【9】 《圖神經網絡有多強大?》(How powerful are graph neural networks?),K. Xu 等人,2019 年,Proc. ICLR。

【10】 Weisfeiler-Lehman 測試存在多重變體,它們具有不同的計算和理論特性,而且屬於相當混亂:建議讀者清楚地理解不同作者對「k-WL」一詞的確切含義。有些作者,路 Sato 和 Maron,就區分了 WL 和「民俗」WL(FWL)測試,這兩種測試的主要不同之處在於色彩細化步驟。k-FWL 測試等價於 (k+1)-WL。Morris 使用的集合 k-WL 算法是另一種變體,具有較低的內存複雜度,但嚴格弱於 k-WL 算法。

【11】 《Weisfeiler 和 Leman Go 神經網絡:高階圖神經網絡》(Weisfeiler and Leman go neural: Higher-order graph neural networks),C. Morris 等人,2019 年,Proc. AAAI。

【12】 《不變圖網絡和等變圖網絡》(Invariant and equivariant graph networks),H. Maron,2019 年,Proc. ICLR.

【13】 《可證明功能強大的圖神經網絡》(Provably powerful graph neural networks),H. Maron 等人,Proc. NeurIPS。另請參閱作者的 博文/>)。

【14】 《圖神經網絡表達能力研究綜述》(A survey on the expressive power of graph neural networks),R. Sato,2020 年,arXiv: 2003.04078。提供了有關不同 Weisfeiler-Lehman 測試和等價圖神經網絡結構的一個非常全面的回顧,並提供了與分布式計算算法的連結。

【15】 《基準圖神經網絡》(Benchmarking graph neural networks),V. P. Dwivedi 等人,2020 年,arXiv: 2003.00982。

【16】更準確地說,消息傳遞的複雜性與邊數呈線性關係,而不是與節點數呈線性關係。在稀疏圖中,情況大致相同。在稠密圖中,邊數可以是 𝒪(n²)。出於這一原因,Maron 認為他的架構可以用於稠密圖。

【17】 從歷史上講,Weisfeiler-Lehman 的形式主義在機器學習社區中並不新鮮。《圖的快速子樹核》(Fast subtree kernels on graphs),N. Shervashidze 和 K. M. Borgwardt 合著的開創性論文,2009 年,Proc. NIPS,就我所知,在深度神經網絡的復甦之前,該論文是第一個使用這種架構的,比本文所討論的工作早了近十年。

作者介紹:

Michael Bronstein,倫敦帝國理工學院教授,Twitter 圖機器學習研究負責人,CETI 項目機器學習領導、Twitter 圖機器學習負責人、研究員、教師、企業家和投資者。

原文連結:

https://towardsdatascience.com/expressive-power-of-graph-neural-networks-and-the-weisefeiler-lehman-test-b883db3c7c49

你也「在看」嗎?👇

相關焦點

  • 圖神經網絡的表達能力,究竟有多強大?
    作者 | Mr Bear編輯 | 叢 末近年來,隨著圖神經網絡在各個領域的火熱應用,越來越多的學者試圖從圖論的角度對圖神經網絡的表達能力進行理論分析,並基於這些理論分析開發出了性能強大的模型。然而,在實際應用中,這些在理論上非常強大的模型的性能往往會受到計算複雜度等因素的限制。
  • 斯坦福ICLR2019圖網絡最新論文:圖神經網絡的表徵能力有多強?
    GNN 處理非結構化數據時的出色能力使其在網絡數據分析、推薦系統、物理建模、自然語言處理和圖上的組合優化問題方面都取得了新的突破。但是,大部分的圖網絡框架的建立都是基於研究者的先驗或啟發性知識,缺少清晰的理論支撐。
  • 深入了解圖神經網絡背後的原理和其強大的表徵能力
    深度學習在圖像分類,機器翻譯等領域都展示了其強大的能力,但是在因果推理方面,深度學習依然是短板。圖神經網絡在因果推理方面有巨大的潛力,有望成為 AI 的下一個拐點。本文將深入了解圖神經網絡背後的原理和其強大的表徵能力。
  • GNN教程:Weisfeiler-Leman算法!
    來源:Datawhale 本文約1800字,建議閱讀7分鐘 本文介紹了作為分析GNN表達能力基礎的Weisfeiler-Leman算法。
  • 從圖網絡表示到圖神經網絡
    而在更一般的情況下, 數字和數字之間,是一個互相聯繫的複雜網絡, 這時候我們用節點和連接它們的邊來描述這種數據類型, 這就是我們說的圖網絡結構。對於圖像CNN是目前深度學習的集大成者, 對於時間序列RNN, transformer是集大成者, 那麼對於圖結構呢?這就是當下的圖神經網絡崛起的背景。
  • 熱詞解讀丨GPT-2、XLNet與圖神經網絡
    除了文本數據,越來越多的圖數據為圖神經網絡研究提供了廣闊的應用背景。AI世界瞬息萬變,本期熱詞,我們將為你解讀GPT-2、XLNet,與圖神經網絡。Scarselli (2009) 提出的圖神經網絡基礎上引入了圖譜論(Spectral Graph Theory),並實現了一個基於卷積神經網絡的圖神經網絡。在傳統的研究中,研究者為了很好地處理圖數據結構特有的信息,往往要經歷數據清洗和特徵抽取(Feature Engineering)的環節,然後才進行數據建模(Modeling)。
  • 一份完全解讀:是什麼使神經網絡變成圖神經網絡?
    雷鋒網AI科技評論按:最近,Graph Neural Network(GNN)在很多領域日益普及,包括社交網絡、知識圖譜、推薦系統甚至於生命科學。GNN在對節點關係建模方面表現十分突出,使得相關的研究領域取得了一定突破。本文將就「為什麼圖有用」、「為什麼很難在圖上定義卷積」、「是什麼使神經網絡成為了圖神經網絡」這些問題進行討論。
  • 圖神經網絡的重要分支:時間圖網絡
    最近,圖神經網絡在生物學、化學、社會科學、物理學和許多其他領域的問題上,取得了一系列成功。到目前為止,圖神經網絡模型主要是針對靜態圖而開發的,靜態圖不會隨著時間而改變。然而,許多有趣的現實世界圖都是動態的,並且會隨著時間的推移而不斷變化,突出的例子包括社交網絡、金融交易和推薦系統。在許多情況下,正是這種系統的動態行為傳達了重要的見解,否則,如果只考慮靜態圖的話,就會失去這種見解。
  • 我們真的需要深度圖神經網絡嗎?
    深度學習的一大特點就是使用的神經網絡具有幾十層甚至數百層。與之形成鮮明對比的是,大多數用於圖深度學習的架構都很「淺」,只有少量的層。在本文中,作者提出了一個看上去有些離經叛道的問題:圖神經網絡架構的深度能否帶來任何優勢?
  • 深入淺出圖神經網絡實現方式,讓圖神經網絡不再難!
    文章《A Comprehensive Survey on Graph Neural Networks》[1]提供了一個全面的圖神經網絡(GNNs) 概述,並且將最新的圖神經網絡分為四類,即遞歸圖神經網絡(RecGNNs)、卷積圖神經網絡(ConvGNNs)、圖自動編碼器(GAEs)和時空圖神經網絡(STGNNs)。
  • 一文讀懂圖神經網絡
    圖神經網絡介紹什麼是圖神經網絡圖神經網絡(Graph Neural Networks, GNNs)是基於圖結構的深度學習方法,近期被廣泛應用到各類圖像、自然語言處理等任務上。圖圖神經網絡作為神經網絡擴展,可以處理以圖結構表示的數據格式。在圖中,每個節點都由本身的特性以及其相鄰的節點和關系所定義,網絡通過遞歸地聚合和轉換相鄰節點的表示向量來計算節點的表示向量。
  • WWW'21 | 圖神經網絡增量學習在事件檢測中的應用
    在這篇論文中,作者提出了一種全新的知識保存增量異構圖神經網絡(KPGNN)用於增量社交事件檢測。為了獲取更多知識,KPGNN將複雜的社交消息構建為統一的社交圖以最大化地利用數據,並依靠圖神經網絡強大的表達能力來提取知識。為了持續適應新到達的數據,KPGNN採用對比損失函數來應對不斷變化的事件類別數。
  • 人工神經網絡簡介
    每兩個節點間的連接都代表一個對於通過該連接信號的加權值,稱之為權重(weight),神經網絡就是通過這種方式來模擬人類的記憶。網絡的輸出則取決於網絡的結構、網絡的連接方式、權重和激活函數。而網絡自身通常都是對自然界某種算法或者函數的逼近,也可能是對一種邏輯策略的表達。神經網絡的構築理念是受到生物的神經網絡運作啟發而產生的。
  • 圖神經網絡逆勢而上,7日學懂入門圖
    你一定不會忽略它——圖神經網絡。 相比傳統神經網絡,圖神經網絡的優勢非常明顯: 1、非順序排序的特徵學習:GNN的輸出不以節點的輸入順序為轉移的。 2、兩個節點之間依賴關係的學習:傳統的神經網絡中,這種依賴關係只能通過節點的特徵來體現。 3、推理能力:GNN能夠從非結構化數據(例如:場景圖片、故事片段等)中生成推理圖。
  • 清華大學圖神經網絡綜述:模型與應用
    機器之心專欄作者:PaperWeekly近年來,圖神經網絡的研究成為深度學習領域的熱點,機器之心曾介紹過清華大學朱文武等人綜述的圖網絡。近日,清華大學孫茂松組在 arXiv 上發布預印版綜述文章 Graph Neural Networks: A Review of Methods and Applications。
  • NYU、AWS聯合推出:全新圖神經網絡框架DGL正式發布
    早在 2014 年,Kai Sheng Tai 等人就研究了能在文本語法樹上訓練的樹神經網絡模型 TreeLSTM。這個工作在一定程度上衝擊了大家用 RNN 處理文本的範式,並且用樹型結構看待文本數據開創了很多新的研究可能。從鍊表到樹,從樹到圖:近年來,對於圖神經網絡(Graph Neural Network)的研究熱潮使得神經網絡的應用領域大大增加。
  • 【學生論壇】詳解記憶增強神經網絡
    記憶增強神經網絡(Memory Augmented Neural Network,MANN)是在傳統的神經網絡模型基礎上增加存儲模塊以及相應的讀寫機制的一類模型。如下圖所示,神經圖靈機模型(Neural Turing Machine,NTM)模型也可以歸為第二類框架,與別的模型的不同也僅在於存儲模塊是一個可隨機訪問的數組結構、特別設計的讀寫方式。
  • 近期必讀的五篇ICLR 2021【圖神經網絡(GNN)】相關論文和代碼
    但是,圖注意力機制學習到的內容不能理解,尤其是圖存在噪聲時。在本文中,我們提出了一種自監督的圖注意力網絡(SuperGAT),這是一種針對噪聲圖的改進圖注意力模型。具體來說,我們用自監督的兩種注意力形式來預測邊,邊的存在和缺失都包含有關節點之間關係重要性的信息。通過對邊進行編碼,SuperGAT在區分錯誤連接的鄰居時會獲得更多可表達的注意力。
  • 逆勢而上的技術:圖神經網絡學習來了!
    3、推理能力:GNN能夠從非結構化數據(例如:場景圖片、故事片段等)中生成推理圖。因此,圖神經網絡在生物學、地圖、金融、搜索、推薦、高能物理學到社會科學和經濟學等領域的複雜關係建模和互動系統構建起到重要作用。例如,在社交軟體Twitter 和 Facebook 等社交網絡上取得了顯著的成功。
  • 圖神經網絡將成AI下一拐點!MIT斯坦福一文綜述GNN到底有多強
    圖神經網絡在因果推理方面有巨大的潛力,有望成為 AI 的下一個拐點。本文將深入了解圖神經網絡背後的原理和其強大的表徵能力。圖神經網絡在因果推理方面有巨大的潛力,有望成為 AI 的下一個拐點。本文將深入了解圖神經網絡背後的原理和其強大的表徵能力。 圖神經網絡(GNNs)廣泛應用於圖的表徵學習,其遵循鄰域聚合框架,通過遞歸聚合和轉換相鄰節點的特徵向量來計算節點的表徵向量。已經提出了許多 GNN 的變體,並在節點和圖形分類任務上取得比較好的結果。