斯坦福ICLR2019圖網絡最新論文:圖神經網絡的表徵能力有多強?

2021-01-15 集智俱樂部


深度學習領域關於圖神經網絡(Graph Neural Networks,GNN)的研究熱情日益高漲,圖網絡已經成為2019年各大深度學習頂會的研究熱點。GNN 處理非結構化數據時的出色能力使其在網絡數據分析、推薦系統、物理建模、自然語言處理和圖上的組合優化問題方面都取得了新的突破。但是,大部分的圖網絡框架的建立都是基於研究者的先驗或啟發性知識,缺少清晰的理論支撐。


本文介紹ICLR2019的一篇論文,提出基於WL圖同構測試的理論框架,為眾多的GNN框架給出了精彩的理論分析,並提出了一個簡單但是強大的圖網絡框架 GIN(Graph Isomorphism Networks),並驗證了GIN在圖分類任務上的卓越性能。


在剛剛過去的ICLR 2019會議中,一篇 Oral 的會議文章回答了很多圖網絡研究者都在思考的一個問題:圖神經網絡到底有多厲害 ( How Powerful are Graph Neural Networks) ?

 

本文是史丹福大學複雜網絡數據分析大佬 Jure Leskovec 教授團隊的最新力作(Node2Vec、GraphSAGE等經典工作也是出自該團隊)。自該工作公開以來,已經有了近70的citations,表明圖網絡社區對該工作的關注度很高。

              

論文題目:

How Powerful are Graph Neural Networks?

論文地址:

https://arxiv.org/pdf/1810.00826.pdf


眾所周知,圖網絡(GNNs)的新變體層出不窮,但是卻鮮有對圖網絡框架的理論分析。Kipf在2017年提出的GCN中,曾從圖上的譜分析的角度給出了GCN的理論基礎;近期也有日本研究者從圖信號處理的角度,表明GNNs只是一個低頻濾波器(arxiv.org/abs/1905.09550)。而本文嘗試從圖同構的角度出發,以Weisfeiler-Lehman Isomorphism Test (WL test)為基礎,給出了GNNs表徵能力的精彩理論分析,具體的貢獻總結如下:

作者表明,在區別不同圖結構時,GNNs最多只能取得和 WL test 一樣效果,即,GNNs表徵能力的上限是WL test;

作者也給出了構建GNNs的條件,滿足這些條件後,GNNs的表徵能力和 WL test一樣強;

給出了GCN和GraphSAGE等傳統圖網絡框架不能區分的網絡結構;

建立了一個簡單的框架GIN,並在理論上證明了其表徵能力和 WL test一樣強。


總結起來,全文需要回答兩個關鍵性的問題:

GNNs表徵能力的上限是什麼?

怎樣的GNNs 框架設計才能達到最好的表徵能力?


這裡的表徵能力是指對圖拓撲結構的表徵是否能有效區分不同的圖結構。所以,是否能夠判斷圖同構便成了GNNs表徵能力的判斷標準。如果GNNs對圖的表徵能區分同構或不同構的圖,則表明其有較強的表徵能力。

 

但圖同構是一個非常難的問題,至今還沒有有效的方法判斷兩個圖是否同構,所幸WL test是一個非常有效的圖同構檢驗近似方法,對圖結構具有很強的表徵能力。那麼,GNNs能否具有WL test一樣的表徵能力?有的話,怎麼設計框架怎樣達到和WL一樣的水平?


GNNs


大多數的GNNs可以歸結為 aggregation based 或者 message-passing based 的框架,主要包含聚合鄰居信息和更新節點信息兩步,AGGREGATE 和 COMBINE:

             

不同的GNNs區別就在與採用不同的 AGGREGATE 和 COMBINE 函數。比如GCN的 AGGREGATE 函數就是採用的mean-pooling,而GraphSAGE則是採用max-pooling。


The Weisfeiler-Lehman Isomorphism Test



WL test是一種有效的檢驗兩個圖是否同構的近似方法。當我們要判斷 Graph1 和 Graph2 是否同構時,WL test 的主要步驟如下圖所示,通過聚合節點鄰居的 label,然後通過 hash 函數得到節點新的 label,不斷重複知道每個節點的 label 穩定不變。   

 

 


穩定後,統計兩張圖的label的分布,如果分布相同,則一般認為兩張圖時同構的。

             

我們可以發現,WL test 方法的步驟和GNNs具有異曲同工之妙,都是通過不斷聚合鄰居信息,得到節點的新表示,這也是為什麼Kipf在2017年GCN的論文中單獨討論和GCN和WL test關係的原因。而正是這種統一性,才使得本文能以 WL test 為基礎來分析GNNs框架。



本文作者基於WL test和GNNs框架的相似性,層層推進,給出了一系列重要的結果。

首先,作者說明GNNs框架的表徵能力不會超過WL test:

             

對於兩個不同構的圖,如果GNNs能將其map到不同embs,那麼WL test也會得出不同構的結論。既然GNNs不能超過WL test, 那麼如何才能和WL test一樣有效呢?

             

上圖展現了WL test與GNNs在表徵網絡結構時的共同點:一個節點的表徵都是由以該節點為父節點的子樹信息聚合得到(中間圖)。而在聚合的過程中,WL test最大的特點是其聚合函數採用的是單射(injective)的 hash 函數。那麼,是否將 GNNs 的的聚合函數也改成單射(injective)函數 就能達到和WL test一樣的效果呢?作者給出了肯定的答案:

             

該結論說明:如果GNNs的聚合函數是定義在multiset上的單射函數,那麼GNNs和WL的表徵能力一樣。也給出了設計 powerful 的 GNNs 框架的首要條件:injective。

 

但是,上述結論雖然給出了設計有效GNNs框架的充分條件,但是並沒有給出具體的設計指南,我們仍然不知道如何才能找到具有單射性質的聚合函數。而如下的結論很好的給出了答案:

             

上述結論表明,如果我們把節點上一層的表徵表示為c,其鄰居的表徵的集合表示為X,那麼任意關於 c 與 X 的函數 g (當然包括單射函數) 都可以表示為\phi 與 f 的複合形式。而該複合函數可以用萬能擬合函數MLPs來擬合,至此,作者們就得到了一個非常簡單的GNNs框架:

             

稱之為GIN (Graph Isomorphism Networks), 該框架最大的特點就是簡單,並且其有效性具有理論保證。在圖分類的實驗中,該框架也表現出了SOTA的性能。

很過經典的GNNs框架採用 mean-pooling 或者 max-pooling的方法,而作者提出,這些聚合方法並不是單射函數,其不能區分一些不同的局部結構,從而導致框架的表徵能力下降:

             

比如上圖所示:相同的顏色代表相同的節點屬性。在圖a, b, c中,節點 v 與 v『 的局部結構均不相同,但是Mean 和 Max 卻不能有效區分,會導致兩種局部結構得到相同的節點表徵,從而丟失了網絡的結構信息。


但是採用Mean和Max-poling的框架(GCN,GraphSAGE)表現都很好,那麼他們學到了什麼呢?


作者認為:

Mean-pooling 致力於學習節點 feature 的分布: 所以,在下述情況中,Mean也能表現的很好:

當我們的任務之和節點feature的分布有關,而與具體的局部結構無關時

當節點的具有豐富的feature,很少重複時

這就解釋了為什麼GCN在做節點分類時,為什麼會有那麼好的效果:因為每個節點的特徵很難會重複。

 

Max 學的是 underlying set:Max處理Multiset時,只關心其對應的underlying set。所以,Max既沒有學到局部結構,也沒有學到分布。當我們關心Representative element或者「skeleton」時,Max會有好效果。



本文為了體現GIN在表徵網絡結構信息的的出色能力,選擇用網絡分類實驗來驗證其有效性。


Training Set Accuracy


我們需要強調的一點時,文中對GNNs表徵能力的分析只關係其擬合能力,即是否能對訓練數據進行充分的擬合,這一點可以由訓練過程的 training set accuracy 來驗證:

             

上圖表明,在5個數據集上,GIN的訓練精度都是最高,說明其擬合能力最好,即其對網絡結構的表徵能力最強。值得注意的是,GIN的訓練精度最高也沒有超過WL subtree kernel的精度,這樣驗證了文中的理論結果:GIN和 WL 一樣強,但是不會超過WL。


Test Set Accuracy


在網絡分類實驗的測試集上,GIN在多個數據集上均取得了SOTA的成績,表明GIN框架不僅有最強的擬合能力,還具有優秀的泛化能力。

       

     

該論文對基於聚合的GNN做了非常精彩的理論分析,給出了GNNs的表徵能力的上界,同時給出了如何設計GNNs才能使其表徵能力最強的條件。在此基礎上,設計了一個異常簡單的圖網絡框架GIN,但是卻非常的有效,在圖分類任務上取得了SOTA的成績。這篇工作表明了基於理論分析的框架構建是多麼的有效,使我們必須承認,對更加廣義的GNNs的理論分析是圖網絡社區的基礎性任務。


CLR 2019 OpenReview (推薦閱讀):

https://openreview.net/forum?id=ryGs6iA5Km

論文的Github頁面:

https://github.com/weihua916/powerful-gnns

相關博客:

https://asail.gitbook.io/hogwarts/graph/how_powerful

https://www.davidbieber.com/post/2019-05-10-weisfeiler-lehman-isomorphism-test/



錄播地址:

http://campus.swarma.org/play/coursedetail?id=10936






集智俱樂部QQ群|877391004

商務合作及投稿轉載|swarma@swarma.org

搜索公眾號:集智俱樂部


加入「沒有圍牆的研究所」

讓蘋果砸得更猛烈些吧!


相關焦點

  • 斯坦福教授ICLR演講:圖網絡最新進展GraphRNN和GCPN(附PPT下載)
    、史丹福大學Jure Leskovec教授在ICLR 2019就圖深度生成模型做了演講,闡述了圖生成模型的方法和應用,並詳細介紹了他的最新成果史丹福大學教授Jure Leskovec 是圖網絡領域的專家,圖表示學習方法 node2vec 和 GraphSAGE 作者之一。
  • 圖神經網絡的表達能力,究竟有多強大?
    作者 | Mr Bear編輯 | 叢 末近年來,隨著圖神經網絡在各個領域的火熱應用,越來越多的學者試圖從圖論的角度對圖神經網絡的表達能力進行理論分析,並基於這些理論分析開發出了性能強大的模型。然而,在實際應用中,這些在理論上非常強大的模型的性能往往會受到計算複雜度等因素的限制。
  • ICCV 2019 論文解讀:用圖神經網絡改善視頻的多標籤分類
    :雷鋒網)AI科技評論投稿,未經允許禁止轉載。在視頻標籤中,很多標籤之間會有一定的相關性並成對出現;如圖一所示(標籤從Youtube8M數據集中選取),當寶馬(BMW)、發動機(Engine)的標籤出現時,汽車(Car)的標籤大概率也會出現;但是當汽車的標籤出現時,寶馬標籤出現的可能性則非常低。
  • 表徵圖數據,絕不止圖神經網絡一種方法
    雖然現在深度神經網絡在物體識別、圖像分類和自然語言處理領域都取得了巨大的成功。然而,「設計出最優的神經網絡,學習並輸出任意的圖」仍然是一個熱門的研究課題。本文是一篇出自倫敦大學學院的圖表徵學習綜述,詳細介紹了圖核、卷積、圖神經網絡、圖嵌入、概率模型共五類圖表徵學習方法的起源與發展,並對圖數據表徵學習方法的最新進展和未來發展方向進行總結和討論。
  • 表徵圖數據絕不止圖神經網絡一種方法
    本文是一篇出自倫敦大學學院的圖表徵學習綜述,詳細介紹了圖核、卷積、圖神經網絡、圖嵌入、概率模型共五類圖表徵學習方法的起源與發展,並對圖數據表徵學習方法的最新進展和未來發展方向進行總結和討論。一、引言將數據構造為圖的形式可以幫助我們以一種系統化的方式研究如何發掘複雜的關係和模式。
  • 為什麼要進行圖學習?談一談逆勢而上的圖神經網絡
    問一問近幾年來逆勢而上的技術有什麼?相信你一定會說出來一個:圖神經網絡。圖網絡延伸GraphSage: Inductive learning 和 Transductive learning圖注意機制GAT:三種注意力機制在圖神經網絡中的應用和總結SGC Networks,一種簡化的圖神經網絡=>產生高達兩個數量級的加速圖系列GIN|GNN模型到底有多強呢?
  • 7篇必讀ACM MM 2019論文:圖神經網絡+多媒體
    圖神經網絡在多媒體領域應用非常多,本文整理了七篇ACM MM 2019最新GNN相關論文,並附上論文連結供參考——個性化推薦、短視頻推薦、多視頻摘要、基於文本的行人搜索、視頻關係檢測、社區問答(CQA)系統等。來新智元 AI 朋友圈和AI大咖們一起討論吧。
  • 表徵學習、圖神經網絡、可解釋的 AI,ML & 機器人七大研究進展一覽
    這裡的複雜之處在於他們如何同時學習潛在空間並學會在該潛在空間進行規劃,更多詳細信息可以參閱他們的論文。這項工作真正令我吃驚的是,它是如何將個人想法組合成一個更大的工作系統。這篇論文與我見過的其它關於機器學習工作的系統論文一樣,但除了表徵特徵化神經網絡訓練這一常年慣用的技巧之外,MuZero 中提出的想法還幫助回答了關於如何為日益複雜的問題構建 AI 的深刻問題。
  • 【乾貨】圖神經網絡的十大學習資源分享
    【乾貨】圖神經網絡的十大學習資源分享英語原文:Top 10 Learning Resources for Graph Neural Networks翻譯:雷鋒字幕組(聽風1996)圖神經網絡(GNNs)是深度學習的一個相對較新的領域,從最近開始越來越流行
  • 南洋理工大學最新發布開源圖神經網絡基準
    但大多數研究所使用的數據集都很小,如Cora和TU,在這種情況下,即使是非圖神經網絡的性能也相當可觀。只有使用中等大小的數據集進行進一步比較,圖形神經網絡的優勢才會變得明顯。在斯坦福圖形神經網絡bull Jure等人發布「開放圖形基準」之後,又一項旨在構建「圖形神經網絡圖像網」的研究應運而生。
  • 國內接收論文佔四成圖神經網絡大火,ACM CIKM2019最佳論文出爐
    在這篇論文中,阿里的研究者提出了這些挑戰的應對方案。他們提出了一個基於圖卷積網絡(GCN)的大規模反垃圾評論方法——GAS,用於檢測閒魚上的垃圾廣告。這個模型結合了異構圖和同構圖來捕獲內容的本地上下文和全局上下文。離線實驗表明,他們提出的方法優於利用評論信息、用戶特徵和被瀏覽商品信息的基線方法。此外,他們還將模型部署在了閒魚上,每天處理上百萬的數據。
  • 加州伯克利博士:基於隱模型的圖神經網絡設計|NeurIPS 2020論文分享
    近年來,人們對深度學習方法在圖上的擴展越來越感興趣。在多方因素的成功推動下,研究人員借鑑了卷積網絡、循環網絡和深度自動編碼器的思想,定義和設計了用於處理圖數據的神經網絡結構,由此出現了一個新的研究熱點——「圖神經網絡(Graph Neural Networks,GNN)」。
  • 中科院計算所沈華偉:圖神經網絡表達能力的回顧和前沿
    3圖神經網絡的表達能力如何前面是關於圖神經網絡基本介紹,現在回到今天的主題:圖神經網絡的表達能力。我們先討論2019年發表在ICLR上的《How powerful are graph neural networks》。
  • 中科院計算所沈華偉:圖神經網絡表達能力的回顧和前沿
    3圖神經網絡的表達能力如何前面是關於圖神經網絡基本介紹,現在回到今天的主題:圖神經網絡的表達能力。我們先討論2019年發表在ICLR上的《How powerful are graph neural networks》。
  • 圖神經網絡迎來快速爆發期 GNN的原理、變體及拓展
    01 GNN:從嘗鮮進入快速爆發期 今年以來,圖神經網絡技術(Graph Neural Network, GNN)得到了學術界極大的關注與響應。在這樣的背景之下,圖神經網絡技術的興起恰似一股東風,第一次使得我們看到了深度學習應用到圖數據之上的曙光。 實際上,在最近一年,GNN 的應用場景不斷延伸,覆蓋了計算機視覺、3D 視覺、自然語言處理、科研、知識圖譜、推薦、反欺詐等場景,下面我們將逐項概括。 1.
  • 圖神經網絡為何如此強大?看完這份斯坦福31頁PPT就懂了!
    新智元報導 來源:Stanford 編輯:大明【新智元導讀】去年,DeepMind、谷歌大腦、MIT等機構聯合提出「圖網絡」(GNN),將端到端學習與歸納推理相結合,有望解決深度學習無法進行關係推理的問題。圖網絡究竟為什麼如此強大?背後的機制如何?
  • 神經網絡如何完成表徵?
    假設你了解前向和後向傳播的一點基礎,其旨在藉助梯度和網絡中的錯誤傳播來近似函數。讓我們通過另一種視覺解釋來理解神經網絡的近似能力。其中涉及基礎數學和圖形分析。 在數學上,我們將研究給定神經網絡的表徵能力,以便提供近似的函數。表徵能力與神經網絡的能力相關,神經網絡會為特定實例分配適當標籤並為該類創建明確定義的準確決策邊界。
  • 圖神經網絡快速爆發,最新進展都在這裡了
    近年來,圖神經網絡(GNNs)發展迅速,最近的會議上發表了大量相關的研究論文。本文作者正在整理一個GNN的簡短介紹和最新研究報告的摘要。希望這對任何準備進入該領域或試圖趕上最新技術進展的人有所幫助。什麼是圖神經網絡?圖是一種包含節點(頂點)的數據類型,這些節點(頂點)通過邊相互連接,邊可以是有向的,也可以是無向的。
  • 斯坦福ICLR 2018錄用論文:高效稀疏Winograd卷積神經網絡| ICLR 2018
    論文「Efficient Sparse-Winograd Convolutional Neural Networks」被 ICLR 2018 錄用,第一作者、史丹福大學的博士生劉星昱為雷鋒網AI 科技評論撰寫了獨家解讀稿件,未經許可不得轉載。引言卷積神經網絡在許多機器學習應用中體現出巨大優勢。
  • 簡單圖神經網絡(GNN)的基礎知識
    在社交網絡分析等一些應用中,圖神經網絡已經得到了廣泛的應用。新加坡科技研究局(A*STAR)的研究者 Rishabh Anand 近日通過圖解的方式介紹了圖與圖神經網絡的基本概念,或許能幫助初學者更直觀地理解圖神經網絡的內涵和價值。