圖神經網絡最新發展

2021-01-10 熱潮人生

什麼是圖神經網絡

圖 1:圖像卷積與圖卷積。

卷積神經網絡(Convolutional Neural Network,CNN)和圖神經網絡(Graph Neural Network,GNN)的主要區別是什麼?

簡單來說,就是輸入數據。

你可能還記得,CNN 所需的輸入是一個固定大小的向量或矩陣。然而,某些類型的數據自然是用圖表示的,如分子、引用網絡或社交媒體連接網絡都可以用圖數據來表示。在過去 GNN 還沒有普及的時候,圖數據往往需要經過這樣的轉換,才可以直接提供給 CNN 作為輸入。例如,分子結構仍被轉換為固定大小的指紋,每個位表示是否存在某種分子子結構 [1] 。這是一種將分子數據插入 CNN 的好方法,但它會不會導致信息損失呢?

圖 2:通過從 NH 原子對獲取不同

GNN 利用圖數據,省去了數據預處理步驟,充分利用了數據中包含的信息。現在,有許多不同的 GNN 架構,其背後的理論也很快變得複雜起來。然而,GNN 可以分為兩類:空間方法(Spatial approach)和譜方法(Spectral approach)。空間方法更為直觀,因為它將池化和卷積操作(如 CNN)重新定義到圖域。譜方法從一個稍有不同的角度來處理這個問題,因為它側重於處理被定義為使用傅立葉變換(Fourier transform)的圖網絡的信號。如果你想了解更多信息,可以閱讀 Thomas Kipf 寫的博文,這篇博文深入介紹了 GCN。另一篇值得閱讀的有趣論文是《MoleculeNet:分子機器學習的基準》[2] ,它很好地介紹了 GNN,並描述了流行的 GNN 架構。當前 GNN 可解釋性問題在撰寫本文時,對 GNN 解釋方法有貢獻的論文屈指可數。儘管如此,這仍然是一個非常重要的主題,最近變得越來越流行。GNN 的流行要比標準神經網絡晚得多。雖然這一領域有很多有趣的研究,但還不是很成熟。GNN 的庫和工具目前仍然處於「實驗階段」,我們現在真正需要的是,讓更多的人使用它來發現 Bug 和錯誤,並轉向生產就緒的模型。創建生產就緒的模型的一種方法是更好地理解它們所做的預測。可以使用不同的解釋方法來完成。我們已經看到了許多應用於 CNN 的有趣的可解釋性方法,例如梯度歸因(Gradient attribution)、顯著性映射(Saliency maps)或類激活映射(Class activation mapping)等。那麼,為什麼不將它們重新用於 GNN 呢?

圖 3:神經網絡和其他機器學習模型常

事實上,這就是目前正在發生的事情。最初用於 CNN 的解釋性方法正在重新設計並應用於 GNN。雖然無需重新發明輪子,但我們仍然必須通過重新定義數學操作來調整這些方法,使它們適用於圖數據。這裡的主要問題是,關於這一主題的研究還相當新,第一篇論文發表於 2019 年。然而,隨著時間的推移,它將會變得越來越流行,目前幾乎還沒有什麼有趣的可解釋性方法可用於 GNN 模型。在本文中,我們將研究新的圖解釋方法,並了解如何將它們應用於 GNN 模型。

第一次嘗試:可視化節點激活

圖 4:左圖:Duvenaud 等人

2015 年,Duvenaud 等人 [3] 發表了關於 GNN 解釋技術的開創性論文。該論文主要貢獻是提出了一種新的 神經圖指紋模型,同時也為這種結構創造了一種解釋方法。該模型背後的主要思想是直接從圖數據本身創建可區分的指紋。為實現這一點,作者不得不重新定義圖的池化和平滑操作。這些操作然後被用來創建一個單層。如圖 4 所示,這些層疊加 n 次以產生向量輸出。層深度也與相鄰節點的半徑相對應,從這些節點收集和匯集節點特徵(在本例中為和函數)。這是因為,對於每一層,池化操作都從鄰近節點收集信息,如圖 1 所示。對於更深的層,池化操作的傳播會延伸到更遠的鄰近節點。與正常的指紋相反,這種方法是可區分的,這使得反向傳播可以以類似 CNN 的方式更新其權值。除了 GNN 模型之外,他們還創建了一個簡單的方法,可以顯示節點激活及其鄰近的節點。遺憾的是,這種方法在論文中沒有很好地解釋,因此有必要查看它們的 代碼實現 以理解其底層機制。然而,他們在分子數據上運行它來預測溶解度,它突出了部分對溶解度預測有交稿預測能力的分子。

圖 5:論文作者在溶解度數據集上測試

到底是怎麼工作的呢?為計算節點激活量,我們需要進行以下計算。對於每個分子,讓我們通過每一層向前傳遞數據,類似於在一個典型 CNN 網絡中對圖像的處理。然後,我們用 softmax() 函數提取每個指紋位各層的貢獻。然後,我們就能夠將一個節點(原子)與它周圍對特定指紋位貢獻最大的鄰居(取決於層深)關聯起來。這種方法相對簡單,但沒有留下很好的文檔記錄。但該論文所做的初步工作是相當有前途的,研究人員隨後進行了更為詳細的嘗試,將 CNN 的解釋方法轉化為圖域。如果你想進一步了解它,可以參閱他們的論文、代碼倉庫 或我在這個 Github 問題 底部對方法的詳細解釋。卷積神經網絡的重用方法敏感度分析(Sensitive Analysis)、類激活映射 或 激發反向傳播(Excitation Backpropagation)都是已經成功應用於 CNN 的解釋技術的示例。目前針對可解釋 GNN 的研究試圖將這種方法轉換成圖域。這一領域的大部分工作都是在這些論文 [4][5] 中完成的。本文不再著重於這些方法的數學解釋,我將為你提供這些方法的直觀解釋,並簡要討論這些方法的結果。歸納 CNN 的解釋方法為了重用 CNN 的解釋方法,讓我們將 CNN 輸入的數據(即圖像)視為一個格子形狀的圖。圖 6 說明了這個想法。

圖 6:圖像可以概括為格子形狀的圖。

如果我們牢記圖像的圖推廣,我們可以說 CNN 解釋方法不怎麼關注邊緣(像素之間的連接),而是關注節點(像素值)。這裡的問題是,圖數據中的邊緣包含了很多有用的信息 [4][5] ,而不是以網格狀的順序。哪些方法已經轉換為圖域?到目前為止,文獻已經討論過以下解釋方法:敏感度分析(Sensitivity Analysis)[4]引導反向傳播 (Guided Backpropagation)[4]層次相關傳播 (Layer-wise Relevance Propagation)[4]基於梯度的熱圖 (Gradient-based heatmaps)[5]類激活映射(Class Activation Maps)[5]梯度加權類激活映射(Gradient-weighted Class Activation Mapping (Grad-CAM))[5]激發反向傳播 (Excitation Backpropagation)[5]請注意,其中兩篇論文 [4][5] 的作者並未提供這些方法的開源實現,因此目前尚無法使用它們。模型無關方法:GNNExplainer本文的代碼倉庫可以在這裡找到。不用擔心,實際上有一個 GNN 解釋工具可以供你使用!GNNExplainer 是一種模型無關的開源 GNN 解釋方法。它也是一個相當通用的,因為它可以應用於節點分類、圖分類和邊預測。這是創建圖特定解釋方法的首次嘗試,由史丹福大學的研究人員提出 [6] 。它是如何工作的?作者聲稱,重用之前應用於 CNN 的解釋方法是一種糟糕的方法,因為它們未能納入關係信息,而關係信息是圖數據的本質。此外,基於梯度的方法對於離散輸入並不是特別有效,而 GNN 通常就是這種情況(例如,鄰接矩陣 是二進位矩陣)。為了克服這些問題,他們創建了一種與模型無關的方法,該方法可以找到輸入數據的子圖,這些子圖以最重要的方式影響 GNN 的預測。說得更具體一些,子圖的選擇是為了最大化與模型預測的互信息(Mutual information)。下圖顯示了 GNNExplainer 如何處理由體育活動組成的圖數據的一個示例。

圖 7:圖數據說明了不同的體育活動。

作者提出的一個非常重要的假設是 GNN 模型的公式。模型的架構或多或少是任意的,但它需要實現 3 個關鍵計算:相鄰節點間的神經信息計算。來自節點鄰域的消息聚合。聚合消息的非線性變換及節點表示。這些所需的計算在某種程度上是有限制的,但大多數現代 GNN 架構無論如何,都是基於消息傳遞架構的。[6]論文給出了 GNNExplainer 的數學定義和優化框架的描述。然而,我會省去一些細節,向你展示一些可以通過 GNNExplainer 獲得的有趣結果。GNNExplainer 在實踐中的應用為比較結果,他們使用了 3 種不同的解釋方法:GNNExplainer,基於梯度的方法(Gradient-based method,GRAD)和 圖注意力模型(Graph attention model,GAT)。在本文前面部分提到了 GRAD,但 GAT 模型需要一些解釋。這是另一個 GNN 架構,它學習邊的注意力權重,這將幫助我們確定圖網絡中哪些邊對節點分類實際上很重要。這可以作為另一種解釋技術使用,但它只適用於這個特定的模型,而且它不解釋節點特性,這與 GNNExplainer 相反。首先讓我們看一下應用於合成數據集的解釋方法的性能。圖 8 顯示了在兩個不同的數據集上運行的實驗。BA-Shapes 數據集 基於 Barabasi-Albert(BA) 圖,它是一種圖網絡,我們可以通過改變它的一些參數來自由調整大小。在這個基礎圖上,我們將附加一些小的房屋結構圖(motifs),這些圖在圖 8 中顯示為真相(Ground Truth)。此房屋結構的節點有 3 個不同的標籤:頂部、中部和底部。這些節點標籤只是表示節點在房子中的位置。因此,對於一個類房屋的節點,我們有 1 個頂部節點、2 個中部節點和 2 個底部節點。還有一個額外的標籤,表示該節點不屬於類房屋圖結構。總體而言,我們有 4 個標籤和一個 BA 圖,其中包含 300 個節點和 80 個類房屋結構,這些結構被添加到 BA 圖的隨機節點中。我們還通過添加 0.1N 個隨機邊來增加一些隨機性。BA-Community 是兩個 BA-Shapes 數據集的聯合,因此總共有 8 個不同的標籤(每個 BA-Shapes 數據集有 4 個標籤)和兩倍的節點。讓我們來看一看結果。

圖 8:目的是為紅色節點的預測提供解

結果似乎很有希望。GNNExplainer 似乎以最準確的方式解釋了結果,因為所選擇的子圖與真相相同。Grad 和 Att 方法未能提供類似的解釋。如圖 9 所示,該實驗也是在真實數據集上進行的。這一次的任務是對整個圖網絡進行分類,而不是對單個節點進行分類。Mutag 是一個由分子組成的數據集,這些分子是根據對某類細菌的誘變效應進行分類的。數據集有很多不同的標籤,它包含 4337 個分子圖。Reddit-Binary 是一個代表 Reddit 中在線討論主題的數據集。在這個圖網絡中,用戶用節點表示,邊表示對另一個用戶評論的響應。根據用戶交互的類型,有兩種可能的標籤,它可以是問答互動,也可以是在線討論互動。總的來說,它包含 2000 個圖。

圖 9:GNNExplainer 運

對於 Mutag 數據集,GNNExplainer 正確識別已知具有致突變性的化學基團(如 NO2、NH2)。GNNExplainer 還解釋了歸類為 Reddit-Binary 數據集在線討論分類圖。這種類型的交互通常可以用樹狀的模式表示(查看真相)。

相關焦點

  • 圖神經網絡的十大學習資源分享
    字幕組雙語原文:【乾貨】圖神經網絡的十大學習資源分享英語原文:Top 10 Learning Resources for Graph Neural Networks翻譯:雷鋒字幕組(聽風1996)圖神經網絡(GNNs)是深度學習的一個相對較新的領域,從最近開始越來越流行。
  • 【乾貨】圖神經網絡的十大學習資源分享
    字幕組雙語原文:【乾貨】圖神經網絡的十大學習資源分享英語原文:Top 10 Learning Resources for Graph Neural Networks>翻譯:雷鋒字幕組(聽風1996)圖神經網絡(GNNs)是深度學習的一個相對較新的領域,從最近開始越來越流行。
  • 圖神經網絡加速晶片進入倒計時 全球首款商用圖神經網絡加速IP核...
    因此,該IP核是全球首款圖神經網絡加速IP核,專注於高效加速圖神經網絡的推斷階段。  適合圖神經網絡的算力  此款圖神經網絡加速IP核代號為「GCU Zero」,主要研究人員之一是中科院計算所特別研究助理嚴明玉博士,其畢業於中科院計算所,曾在美國加州大學聖巴巴拉分校 SEAL 實驗室訪學,主要從事圖計算和圖神經網絡加速結構研究。
  • 首款商用圖神經網絡加速IP核發布
    據介紹,這是全球首款商用圖神經網絡加速IP核,專注於高效加速圖神經網絡的推斷階段。   基於混合結構設計思想,GCU Zero分別為圖神經網絡的兩個主要執行階段——圖遍歷階段和神經網絡變換階段設計相應的加速引擎,並流水兩個引擎的執行。這一設計思路可匹配圖神經網絡對算力的特殊要求,大幅提升圖神經網絡的執行效率。
  • 圖神經網絡前沿綜述:動態圖網絡
    導語 圖神經網絡已經被廣泛的應用於圖結構數據的建模和表徵學習,但是主流的研究都局限於處理靜態網絡數據,而真實的複雜網絡大多會隨時間發生結構和性質的演化
  • 表徵圖數據,絕不止圖神經網絡一種方法
    雖然現在深度神經網絡在物體識別、圖像分類和自然語言處理領域都取得了巨大的成功。然而,「設計出最優的神經網絡,學習並輸出任意的圖」仍然是一個熱門的研究課題。本文是一篇出自倫敦大學學院的圖表徵學習綜述,詳細介紹了圖核、卷積、圖神經網絡、圖嵌入、概率模型共五類圖表徵學習方法的起源與發展,並對圖數據表徵學習方法的最新進展和未來發展方向進行總結和討論。
  • 為什麼說Transformer就是圖神經網絡?
    通過這篇文章,我想建立起圖神經網絡(GNNs)和Transformers之間的聯繫。具體來說,我將首先介紹NLP和GNN領域中模型架構的基本原理,然後使用公式和圖表來闡述兩者之間的聯繫,最後將討論如何讓兩者協同運作來推動這方面的研究進展。我們先來談談模型架構的目的——表示學習。
  • 表徵圖數據絕不止圖神經網絡一種方法
    近年來,圖神經網絡掀起了將深度學習方法應用於圖數據分析的浪潮。不過其作為一門古老的認識世界的方法論,人們對於圖表徵技術的研究從很早以前就開始了。雖然現在深度神經網絡在物體識別、圖像分類和自然語言處理領域都取得了巨大的成功。然而,「設計出最優的神經網絡,學習並輸出任意的圖」仍然是一個熱門的研究課題。
  • 百度李偉彬:基於PGL的圖神經網絡基線系統
    而數據上的空間關聯特性,恰好是圖神經網絡所擅長的。圖神經網絡在非結構化數據上有著出色的處理能力,使得最近一段時間圖神經網絡在學界與工業界上大放光彩。因此,本次分享將介紹2020國際大數據比賽中,基於百度飛槳推出的圖學習框架Paddle Graph Learning(PGL)實現的基線系統。
  • 我們真的需要深度圖神經網絡嗎?
    深度學習的一大特點就是使用的神經網絡具有幾十層甚至數百層。與之形成鮮明對比的是,大多數用於圖深度學習的架構都很「淺」,只有少量的層。在本文中,作者提出了一個看上去有些離經叛道的問題:圖神經網絡架構的深度能否帶來任何優勢?
  • NeurIPS2020|缺失數據還原-圖神經網絡新應用
    缺失數據還原-圖神經網絡新應用作者:Jiaxuan You1 Xiaobai Ma2 Daisy Yi Ding3 Mykel Kochenderfer2 Jure Leskovec1數據缺失補全是傳統機器學習基本任務之一,本文採用圖網神經網絡解決該問題,方法簡單,思路新穎,非常有意思。大佬出品,必是精品,厲害,厲害!
  • 中科院計算所提出全球首款圖神經網絡加速晶片設計
    近日,《中國計算機學會通訊》(CCCF)刊發了中科院計算所特別研究助理嚴明玉博士、研究員範東睿以及研究員葉笑春共同撰寫的綜述文章《圖神經網絡加速晶片:人工智慧「認知智能」階段起飛的推進劑》。文章披露,為更好地支持認知智能的發展,該團隊提出了國際首款圖神經網絡加速晶片設計 HyGCN。
  • 圖神經網絡越深,表現就一定越好嗎?
    數十層甚至數百層神經網絡的應用,是深度學習的重要標誌之一。但現實情況卻遠非如此:比如今年被視作機器學習領域最火熱的研究方向之一——圖神經網絡,大多數都只運用了寥寥幾層網絡。一般思路裡,我們會認為圖神經網絡越深,效果就會越好。然而,日前帝國理工學院教授Michael Bronstein 發出了靈魂拷問:圖神經網絡的深度,真的會帶來優勢嗎?
  • ERNIE加持,飛槳圖神經網絡PGL全新升級
    在2019年深度學習開發者秋季峰會上,百度對外發布飛槳圖學習框架 PGL v1.0正式版,歷經5個月的版本迭代,PGL 再度升級,發布v1.1版本,帶來了最新的算法突破、全面的工業級圖學習框架能力以及工業級的實踐案例。下面我們逐一揭秘升級點。
  • 中科院計算所研究團隊提出圖神經網絡加速晶片設計
    嚴明玉在受訪時說,圖神經網絡在搜索、推薦、風險控制等重要領域有著廣泛應用。現有的處理器晶片在執行圖神經網絡的計算中效率低下,其團隊展開面向圖神經網絡的加速晶片設計,為解決這一難題提供可行方案。讓機器「會思考」 設計中「增引擎」圖神經網絡被認為有望解決深度學習無法處理的關係推理、可解釋性等一系列問題,讓機器「能理解、會思考」。然而由於圖神經網絡在圖數據處理方面的特殊性,傳統用於加速神經網絡的晶片難以直接對圖神經網絡的執行提供高效計算支撐。
  • 【GNN】從圖(Graph)到圖卷積(Graph Convolution):漫談圖神經網絡模型 (一)
    從圖(Graph)到圖卷積(Graph Convolution):漫談圖神經網絡模型 (二)從圖(Graph)到圖卷積(Graph Convolution):漫談圖神經網絡模型 (三)筆者最近看了一些圖與圖卷積神經網絡的論文,深感其強大,但一些Survey或教程默認了讀者對圖神經網絡背景知識的了解,對未學過信號處理的讀者不太友好。
  • 圖神經網絡的「前世今生」
    而現實中很多數據之間都有著相當複雜的關係, 一般表現為非歐空間之上的圖結構.為處理圖數據之上的任務, 圖神經網絡就應運而生了.>GSTM -- 圖時空網絡圖一: GNN的分類網絡Embedding與GNN的異同網絡embedding旨在在保留網絡拓撲結構和節點信息的基礎之上, 在低維向量空間之中對網絡節點進行表示.
  • 深度圖神經網絡到底「深不深」
    今年,圖深度學習在機器學習領域的最熱話題上一直居高不下。然而,那些習慣於想像具有數十甚至上百層卷積神經網絡才算有「深度」的人,看到圖「深度」學習最多只用幾層,一定會很失望。「深度圖神經網絡」是用詞不當嗎?我們是否解釋一下這個經典之詞來看看「深度」是否對圖學習是不利的?訓練深度圖神經網絡非常困難。
  • 中科院計算所研究人員再獲進展 向圖神經網絡加速時代再進一步
    中新網北京1月9日電 (記者 張素)「『HyGCN』寓意向圖神經網絡的加速說『Hi』,也寓意圖神經網絡加速的時代即將開啟。」中國科學院計算技術研究所特別研究助理嚴明玉近日在受訪時說。「GCN」即圖卷積神經網絡的英文縮寫,這是圖神經網絡的一個分支。
  • 推出圖神經網絡屠榜「必殺技」UniMP
    9月18日,百度正式公布在圖神經網絡領域取得新突破,提出融合標籤傳遞和圖神經網絡的統一模型UniMP(Unified Message Passing),在圖神經網絡權威榜單OGB(Open Graph Benchmark)取得多項榜首,引發業界關注。  Leaderboard for ogbn-products