性能超越圖神經網絡,將標籤傳遞和簡單模型結合實現SOTA

2020-12-18 AI科技大本營

譯者 | 劉暢

出品 | AI科技大本營

頭圖 | CSDN付費下載自視覺中國

圖神經網絡(GNNs)是圖學習中一種主流的技術。然而,對於GNN為什麼在實際使用中很成功以及它們是否是優異性能所必需的技術,了解相對較少。

本文展示了許多標準的傳導節點網絡的分類基準結果,作者通過將忽略圖結構的淺層模型與利用標籤結構中相關性的兩個簡單後處理步驟相結合,可以超越或匹配SOTA的GNN的性能,這裡主要有兩個相關性(i)將訓練數據中的殘餘誤差帶到測試數據中,用於矯正錯誤的「誤差相關性」(error correlation),以及(ii)一個「預測相關性」,它可以平滑測試數據上的預測。本文稱整個過程為矯正且平滑(Correct and Smooth, C&S),後處理步驟是通過對早期基於圖的半監督學習方法的標準標籤傳導技術的簡單修改來實現的。

本文的方法在各種基準測試上超過或接近於SOTA的GNNs的性能,並且它只需要一小部分的參數,運行速度更快。例如,本文方法在OGB產品數據集中以減少137倍的參數和100倍的訓練時間超過了最著名的GNN性能。本文方法的性能突出展現了如何直接將標籤信息納入學習算法(如在傳統技術中所做的那樣),並產生簡單而實質性的性能提升,也可以將技術融入大型GNN模型中,提供適度增益。

OGB結果的代碼是:

https://github.com/Chillee/correctandsooth。

引言

隨著神經網絡在計算機視覺和自然語言處理方面的成功,現在有許多的圖神經網絡(GNN)來對關係性數據進行預測。這些模型已經取得了很大的成功,並且在開放的圖基準排行榜上名列前茅。通常,GNN的方法主要是圍繞著創建比基本結構更具表現力的體系結構,如圖卷積網絡(GCN)或GraphSAGE;例子如圖注意力網絡,圖同構網絡和各種深層模型。許多新GNN架構的想法都是從語言(例如注意力)或視覺(例如深層CNN)模型中的新架構改編而來的,希望能成功轉化為圖形。然而,隨著這些模型變得越來越複雜,理解它們的性能增益是一個主要的挑戰,並且將它們擴展到大型數據集是很困難的。

在本文中,我們將展示,通過組合更簡單的模型,我們可以達到多大的程度,重點是了解在圖學習中,特別是轉化節點分類中,哪裡有容易提高性能的機會。本文提出了一個包含三個主要部分的簡單管道(pipeline)(圖1):(i)使用忽略圖結構的節點特徵進行基礎預測(例如,MLP或線性模型);(ii)校正步驟,它將訓練數據中的不確定性傳播到圖中,以校正基礎預測;以及(iii)對圖上的預測進行平滑處理。步驟(ii)和(iii)只是後處理,使用的是經典的基於圖的半監督學習方法,即標籤傳播。

圖1 任意GNN模型,校正和平滑過程整體概述,並附帶一個示例。

假設左側簇屬於橙色類,右側簇屬於藍色類。我們使用mlp進行基礎的預測,假設在本例中,圖結構對所有節點都給出了相同的預測。然後,通過傳遞訓練數據中的誤差來校正基礎的預測。最後,通過標籤傳遞對校正後的預測進行平滑處理。

本文方法性能改進的一個主要來源是直接使用標籤進行預測。這種想法並不是什麼新鮮事,早期的基於擴散的半監督學習算法,如光譜圖傳感器、高斯隨機場模型和標籤擴散都使用了這一思想。然而,這些方法的動機是在點雲數據上進行半監督學習,因此使用特徵來構造圖。從那時起,這些技術被用於僅從標籤(即無特徵)學習關係數據,但在GNNs中基本上被忽略了。

儘管如此,本文發現即使是簡單的標籤傳播(忽略了特徵)在許多基準測試中都表現得出奇地好。這就為組合兩個預測能力的正交提供了動力,一個來自節點特徵(忽略圖結構),另一個來自直接在預測中使用已知標籤。

最近的研究將GNN與標籤傳播以及馬爾可夫隨機場聯繫起來,並且一些技術在特徵中使用了標籤信息。然而,這些方法的訓練成本仍然很高,而本文是以兩種可理解的低成本方式使用標籤傳播。本文從一個忽略了圖結構的模型的「基礎預測」開始。之後,使用標籤傳播進行誤差修正,然後平滑最終預測。這些後處理步驟基於這樣一個事實,即連接節點上的錯誤和標籤是正相關的。

總的來說,本文的方法表明,結合幾個簡單的思想,在傳導節點分類中,無論是在模型大小還是在訓練時間方面,成本都只佔一小部分。例如,在OGB產品基準測試中,我們用少於兩個數量級的參數和訓練時間,超過了目前最著名的GNN方法。

然而,本文的目標並不是說當前的圖學習方法很差或不合適。相反,本文的目標是強調在圖學習中提高預測性能的更簡單的方法,這樣可以更好地理解性能增加的緣由。本文的主要發現是在學習算法中更直接地加入標籤是非常關鍵的。通過將我們的想法與現有的GNN相結合,我們也看到了一些提升,儘管這些提升是微不足道的。但作者希望本文的方法能為其他的圖學習任務,如歸納節點分類、連結預測和圖預測提供一些思路。

方法

我們的方法從一個簡單的基於節點特徵的基礎預測器開始,這個預測器不依賴於圖的任何學習。之後,我們執行兩種類型的標籤傳播(LP):一種是通過建模相關誤差來修正基礎的預測,另一種是平滑最終的預測結果。我們稱這兩種方法的組合是校正和平滑(C&S;圖1)。LP(Label Propagation, 標籤傳遞)只是一個後處理的步驟,本文的算法pipeline不是一個端到端的訓練。此外,該圖僅用於這些後處理步驟和增強特徵的前處理步驟。而一般的基礎預測方式不是這樣的。與標準GNN模型相比,這使得訓練變得更快且可擴展。此外,我們利用了LP(在沒有特性的情況下,它本身的性能往往相當好)和節點特徵。我們將看到,將這些補充的信息結合起來會產生很好的預測。

首先,我們使用一個不依賴於圖結構的簡單的基礎預測器。這個預測器可以是線性的模型或者一個淺的多層感知器,接下來,我們通過合併標籤來關聯修正錯誤,從而提高基礎預測器的精度。為了最終的預測,出於圖中的相鄰節點可能具有相似標籤的考慮,作者進一步平滑了修正後的預測值。回顧整個處理的流程,就是從簡單的基礎預測Z開始,只使用節點特徵,而不是圖結構。然後,通過在訓練數據上傳遞已知誤差來估計誤差,得到誤差修正後的預測Z(r)=Z+^E。最後,作者將這些作為未標記節點上的得分向量,通過另一個LP步驟將其與已知標籤相結合,得到平滑的最終預測。這就是Correct and Smooth(C&S)方法。

實驗

為了證明本文方法的有效性,我們使用了九個數據集(表1)。Arxiv和Products數據集來自開放圖基準數據集;Cora、Citeseer和Pubmed是三個經典的引文網絡基準數據集;wikiCS是一個網絡圖。在這些數據集中,類標籤是論文、產品或頁面的種類,而特徵是從文本派生出來的。本文還使用Rice 大學的Facebook社交網絡,其中類標籤是宿舍,特徵是性別、專業和班級年份等屬性,以及美國的地理數據集,類標籤是2016年選舉結果,特徵是人口統計。最後,我們使用了一個歐洲研究機構的電子郵件數據集,其中的類標籤是部門成員,沒有特徵。

具體的對比方法和結果如下圖所示,其他更詳細的實驗步驟和對比結果,可以詳細閱讀論文。

結論

GNN模型正變得越來越有泛化能力,參數也越來越多,訓練成本相應的也變得越來越高。本文的研究結果表明,我們應該探索其他提高性能的技術,例如標籤傳遞和特徵增強。特別是,標籤傳遞和它的變體是一種可持續發展的想法。直接地將它們結合到圖學習模型中就會帶來很大的好處,而且本文已經證明這些方法可以使預測結果更好,訓練更快。

相關焦點

  • 訓練時間和參數量百倍降低,直接使用標籤進行預測,性能竟超GNN
    ,圖神經網絡被用來進行關係數據的預測。這些模型取得了很大進展,如 Open Graph Benchmark。新型 GNN 架構的許多設計思想是從語言模型(如注意力)或視覺模型(如深度卷積神經網絡)中的新架構改編而來。但是,隨著這些模型越來越複雜,理解其性能收益成為重要挑戰,並且將這些模型擴展到大型數據集的難度有所增加。
  • 清華大學圖神經網絡綜述:模型與應用
    引言圖是一種數據結構,它對一組對象(節點)及其關係(邊)進行建模。近年來,由於圖結構的強大表現力,用機器學習方法分析圖的研究越來越受到重視。圖神經網絡(GNN)是一類基於深度學習的處理圖域信息的方法。由於其較好的性能和可解釋性,GNN 最近已成為一種廣泛應用的圖分析方法。
  • 性能超越最新序列推薦模型,華為諾亞方舟提出記憶增強的圖神經網絡
    特別地,本文使用圖神經網絡對短期的商品語境信息建模,並使用共享的記憶網絡來捕捉商品之間的長期依賴。另外,本文使用雙線性函數以捕捉相關商品的共現模式。在模型評估上,本文在五個真實場景的數據集上進行了評測,並使用一系列評估指標和多個當前效果最優的模型進行了對比。試驗結果顯示,本文模型在Top-K序列推薦中效果極佳。
  • 深度神經決策樹:深度神經網絡和樹模型結合的新模型
    深度神經決策樹:深度神經網絡和樹模型結合的新模型 工程師郭婷 發表於 2018-08-19 09:14:44 近日,來自愛丁堡大學的研究人員提出了一種結合深度神經網絡和樹模型的新型模型——深度神經決策樹(Deep
  • 百度飛槳登頂圖神經網絡權威榜單3項榜首 推出大殺器UniMP
    9月18日,百度正式公布在圖神經網絡領域取得新突破,提出融合標籤傳遞和圖神經網絡的統一模型UniMP(Unified Message Passing),在圖神經網絡權威榜單OGB(Open Graph Benchmark)取得多項榜首,引發業界關注。
  • 性能超越谷歌!依圖團隊提出新一代移動端網絡架構MobileNeXt
    【新智元導讀】AIoT的時代即將來臨,移動端智能應用呈爆發式增長,但是大型神經網絡在移動端的性能制約了AI在移動端的推廣。最近,依圖團隊發表在ECCV的一篇論文,提出了新一代移動端神經網絡架構MobileNeXt,大大優於谷歌的MobileNet、何愷明團隊提出的ResNet等使用倒殘差結構的模型,為移動端算力帶來了新的突破。
  • Bengio 團隊力作:GNN 對比基準橫空出世,圖神經網絡的「ImageNet...
    三、圖神經網絡簡介從最簡單的形式上來說,圖神經網絡根據以下公式迭代式地從一層到另一層更新其中的節點表徵:我們將這個簡單版本的圖神經網絡稱為圖卷積網絡(GCN)。GraphSage 和 GIN(圖同構網絡)提出了這種平均機制的簡單變體。在採用平均聚合版本的 GraphSage 中,公式(1)可以被改寫為:
  • 表徵圖數據絕不止圖神經網絡一種方法
    本文是一篇出自倫敦大學學院的圖表徵學習綜述,詳細介紹了圖核、卷積、圖神經網絡、圖嵌入、概率模型共五類圖表徵學習方法的起源與發展,並對圖數據表徵學習方法的最新進展和未來發展方向進行總結和討論。一、引言將數據構造為圖的形式可以幫助我們以一種系統化的方式研究如何發掘複雜的關係和模式。
  • 為什麼說Transformer就是圖神經網絡?
    除了那些顯而易見的案例,比如Pinterest、阿里巴巴和Twitter公司部署的推薦系統,一個稍有細微差別的成功案例就是Transformer架構的實現,它在NLP行業引起了軒然大波。通過這篇文章,我想建立起圖神經網絡(GNNs)和Transformers之間的聯繫。
  • 表徵圖數據,絕不止圖神經網絡一種方法
    這裡的核方法的特點是,引入神經學習技術將核方法用於圖數據。深度圖核(Deep graph kernels):是將圖核與深度學習技術相結合的重要方法之一。他們試圖解決獲取子結構之間有意義的語義的問題。結構袋方法存在子結構依賴、子結構稀疏和對角優勢的問題。
  • NeurIPS2020|解決不確定性問題—用於半監督學習的圖隨機神經網絡...
    用於半監督學習的圖隨機神經網絡Graph Stochastic Neural Networks forSemi-supervised Learning圖神經網絡(GNN)在半監督節點分類任務中取得了卓越的性能。
  • 超越蒙特卡洛樹搜索:北大提出深度交替網絡和長期評估圍棋模型
    在這種思路下,蒙特卡洛樹搜索(MCTS)(Gelly & Silver 2011)是最為流行的方法,它構建了一個廣泛而深入的搜索樹來模擬和評估每個落子位置的價值。利用這種方法構建的圍棋程序已經獲得了很大成功。AlphaGo 結合了監督學習與強化學習的優勢。通過訓練形成一個策略網絡,將棋盤上的局勢作為輸入信息,並對有所可行的落子位置形成一個概率分布。
  • 2021年的第一盆冷水:有人說別太把圖神經網絡當回事兒
    機器之心編輯部圖神經網絡(GNN)是目前熱門的研究方向,但我們是否應把注意力過多地放在這上面?數據科學家 Matt Ranger 從模型的本質、性能基準測試、實踐應用等方面陳述了自己的觀點。圖神經網絡(GNN)是機器學習中最熱門的領域之一,在過去短短數月內就有多篇優秀的綜述論文。但數據科學家 Matt Ranger 對 GNN 卻並不感冒。
  • 普林、DeepMind新研究:結合深度學習和符號回歸,從深度模型中看見...
    符號模型緊湊,具備可解釋性和良好的泛化能力,但很難處理高維機器學習問題;深度模型擅長在高維空間中學習,但泛化性和可解釋性卻很差。那麼有沒有什麼辦法可以取二者之所長呢?這項研究做到了。如何將深度模型轉換為符號方程?來自普林斯頓、DeepMind 等機構的研究人員提出了一種解決方案:結合深度學習和符號回歸實現這一目標。
  • ...結構&表徵聯合學習新範式IDGL:用於圖神經網絡的迭代式深度圖學習
    ,以幫助圖神經網絡 (GNN) 使用者在圖結構未知或存在噪聲的情況下,在特定下遊任務中取得最優的性能。這類工作一般假設圖結構已知,且存在被篡改的可能性,所以需要設法修正被篡改的圖結構,從而提高模型在下遊任務上的性能。另外,在CV和NLP領域,也有一些工作嘗試為視覺對象或者單詞自動化地構建圖結構,以期利用GNN模型在下遊任務中取得更優結果[8,9]。這些工作主要基於簡單的注意力機制學習一個稀疏圖結構,但是未對圖結構的質量進行過多幹預。
  • 硬剛無限寬神經網絡後,谷歌大腦有了12個新發現
    另一方面,無限寬CNN-GAP網絡的性能要比其有限寬的差。作者強調架構在相對性能中起著關鍵作用。例如,即使與各種技巧(例如大學習率、L2正則化和欠擬合)結合使用,無限FCN也會勝過有限寬網絡。僅在使用集合方法之後,性能才變得相似。一個有趣的發現是,ZCA正則化預處理可以對CNN-GAP核進行重大改進,將差距縮小到1-2%之內。
  • 從圖(Graph)到圖卷積(Graph Convolution):漫談圖神經網絡 (二)
    在從圖(Graph)到圖卷積(Graph Convolution): 漫談圖神經網絡 (一)中,我們簡單介紹了基於循環圖神經網絡的兩種重要模型,在本篇中,我們將著大量筆墨介紹圖卷積神經網絡中的卷積操作。接下來,我們將首先介紹一下圖卷積神經網絡的大概框架,藉此說明它與基於循環的圖神經網絡的區別。
  • 微軟提出Petridish,完美解決問題的神經網絡?
    從概念上講,NAS方法專注於為給定問題和數據集找到合適的神經網絡體系結構。不妨將這個方法理解為使機器學習架構本身成為機器來學習問題。近年來,NAS技術的數量激增,並且正在更多主流的深度學習框架和平臺得到應用。但是,第一代NAS模型在經歷神經網絡域名變更時遇到了許多困難。因此,尋找新的NAS技術極有可能會繼續推動該領域的深層次創新。
  • 一種神經網絡結構改進方法「ReZero」
    近日,來自加州大學聖地牙哥分校(UCSD)的研究者提出一種神經網絡結構改進方法「ReZero」,它能夠動態地加快優質梯度和任意深層信號的傳播。 這使得在神經網絡訓練初期,所有組成變換 F 的參數所對應的梯度均消失了,之後這些參數在訓練過程中動態地產生合適的值。改進的網絡結構如下圖所示:
  • 自動化所提出基於類腦脈衝神經網絡的音樂記憶與激活模型
    中國科學院自動化研究所類腦智能研究中心曾毅團隊充分借鑑了人類大腦在音樂信息處理方面的神經機制,構建了一個多尺度的多腦區協同的脈衝神經網絡SNN(Spiking Neural Network)模型,用於音樂感知與記憶。模型可以通過一首曲名從而回憶起整首樂曲,也可以只通過一個片段,回憶起整首曲目,甚至可以回憶樂曲的節奏與速度。