最新6篇ICLR2021篇圖神經網絡論文推薦

2021-02-13 專知

CCF-S級會議ICLR剛剛放榜~(小編要是中了ICLR能吹一年😱😱😱

這裡推薦幾篇ICLR 2021接收的最新GNN論文~

1.時序網絡中的利用因果匿名遊走的歸納表示學習

2.具有自監督能力的圖注意力機制

3.圖神經網絡的瓶頸及其實踐意義

4.ADAGCN:將圖卷積網絡轉換為深層模型

5.通過圖多層池化準確學習圖表示

6.基於神經網絡的圖粗化

   1.INDUCTIVE REPRESENTATION LEARNING IN TEMPORAL NETWORKS VIA CAUSAL ANONYMOUS WALKS

https://arxiv.org/pdf/2101.05974.pdf

時序網絡是現實世界中動態系統的抽象。這些網絡通常根據某些定律發展,例如社交網絡中很普遍的三元閉包定律。歸納表示學習時間網絡應該能夠捕獲此類定律,並進一步將遵循相同定律應用於未在訓練過程中見過的數據,即inductive的能力。以前的工作主要依賴於網絡節點身份或豐富邊屬性,通常無法提取這些定律。因此,本文提出了因果關係匿名遊走(Causal Anonymous Walks, CAW)來inductively的進行時序網絡的表示學習。

具體來說,CAW是通過時間隨機遊走提取類似motif的結構來捕獲圖的動態性,這避免了motif計算複雜的問題。同時,CAW採用新穎的匿名化策略,用一組節點的命中計數來替換節點身份以保持模型inductive的能力,同時也建立了motif之間的相關性,這對於某些圖挖掘任務(如鏈路預測)是非常關鍵的。進一步的,本文進一步提出了一個神經網絡模型CAW-N來編碼CAW。最後,在6個真實時序網絡數據集上,CAW-N均取得了大幅度的提升,例如AUC提升了15%!

可以看到CAW模型明顯優於其他模型。

2.HOW TO FIND YOUR FRIENDLY NEIGHBORHOOD:GRAPH ATTENTION DESIGN WITH SELF-SUPERVISION

https://openreview.net/pdf?id=Wi5KUNlqWty

圖神經網絡中的注意力機制旨在分配更大的權重給重要的鄰居節點,以進行更好地表示。但是,圖神經網絡學到的東西不是那麼容易理解的,尤其是在有噪聲的圖上。而本文提出的自監督的圖注意力網絡(SuperGAT)就是用來解決這一問題的。

模型圖

原始GAT與SuperGAT對比:原始的GAT如矩形圖中所示。SuperGAT通過一對節點中是否存在邊來引導注意力。用 

 

實驗結果

3.ON THE BOTTLENECK OF GRAPH NEURAL NETWORKSAND ITS PRACTICAL IMPLICATIONS

https://openreview.net/pdf?id=i80OPhOCVH2

自從Gori等人提出圖神經網絡(GNN)以來,訓練GNN的主要問題之一是在圖中的遠距離節點之間傳播信息。本文提出GNN在較長路徑中聚集信息時會出現瓶頸。這個瓶頸導致over-squarshing。這樣GNN就無法傳播源自遠程節點的消息,執行效果也不好。本文中調整了遠程GNN模型問題,無需任何調整或額外的權重即可突破瓶頸得到改善後的結果。

模型圖

從圖中可以看出,相對RNN而言,GNN中的瓶頸對結果的影響更大。

這項工作並非旨在提出新的GNN變體。相反,這項工作的主要貢獻是 :強調GNN固有的瓶頸問題,並說明瓶頸問題是有害的。

實驗結果

從圖中可以看出,在鄰居匹配問題中,隨著GNN深度的增加,模型的精確度在下降。

4.ADAGCN: ADABOOSTING GRAPH CONVOLUTIONALNETWORKS INTO DEEP MODELS

https://openreview.net/pdf?id=QkRbdiiEjM

深圖模型的設計仍有待研究,其中至關重要部分是如何以有效的方式探索和利用來自鄰居的躍遷。在本文中,通過將AdaBoost集成到網絡計算中,提出了一種新穎的類RNN深度圖神經網絡架構。提出的圖卷積網絡AdaGCN(Adaboosting圖卷積網絡)具有有效提取來自當前節點的高階鄰居知識的能力。

不同於其他直接堆疊圖卷積層的圖神經網絡,AdaGCN在所有「層」之間共享相同的基礎神經網絡架構並進行遞歸優化處理,類似於RNN。

此外,本文還在理論上建立了AdaGCN與現有圖卷積方法之間的聯繫,從而展示了模型的優勢。最後,用實驗證明了AdaGCN的計算優勢。

模型圖

表格中顯示了不同模型的精度對比。可以看到AdaGCN比其他模型表現更好。

5.ACCURATE LEARNING OF GRAPH REPRESENTATIONSWITH GRAPH MULTISET POOLING

https://openreview.net/pdf?id=JHcqXGaqiGn

消息傳遞圖神經網絡已廣泛用於建模圖數據,在許多圖形分類和鏈路預測任務上取得了很好的效果。然而,為了獲得圖形的準確表示還需要定義良好的池化功能,即在不丟失單個節點特徵和全局圖結構的前提下將節點表示集映射到緊湊的形式。

為了解決現有的圖池化的限制,本文將圖池化問題表述為帶有關於圖結構的輔助信息的多集編碼問題,並提出了圖形多集轉換器(GMT)。該方法可以輕鬆擴展到以前的節點聚類方法,來進行分層圖池化。實驗結果表明,GMT明顯優於其他圖形池化方法,並在圖重構和生成任務上獲得很大的性能提升。

模型圖

6.GRAPH COARSENING WITH NEURAL NETWORKS

https://openreview.net/pdf?id=uxpzitPEooJ

隨著大規模圖的日益流行,處理,提取和分析大型圖形數據的計算難題有著越來越重要意義。圖粗化是一種在保持基本屬性的同時減小圖尺寸的技術。儘管有豐富的圖粗化文獻,但只有有限的數據驅動方法。

本文利用圖深度學習的最新進展來進行圖粗化。首先提出測量粗化算法質量的框架並說明我們需要根據目標仔細選擇圖粗化的Laplace運算符和相關的投影/提升運算符。由於粗化圖的當前邊權可能不是最優的選擇,用圖神經網絡對權重分配圖進行參數化並對其進行訓練,以無監督的方式提高粗化質量。通過在合成網絡和真實網絡上進行的廣泛實驗,證明了該方法顯著改善了各種條件下的常用圖粗化方法指標,縮小率,圖尺寸和圖類型。它概括為較大的尺寸(訓練圖的25倍),可適應不同的損耗(可微分和不可微分),並且可以縮放到比以前大得多的圖。

模型圖

可以看到GOREN可以在不同類型的圖上優化粗化方法。

專知便捷查看

便捷下載,請關注專知公眾號(點擊上方藍色專知關注)

專知,專業可信的人工智慧知識分發,讓認知協作更快更好!歡迎註冊登錄專知www.zhuanzhi.ai,獲取5000+AI主題乾貨知識資料!歡迎微信掃一掃加入專知人工智慧知識星球群,獲取最新AI專業乾貨知識教程資料和與專家交流諮詢!點擊「閱讀原文」,了解使用專知,查看獲取5000+AI主題知識資源

相關焦點

  • [直播預告] ICLR/WWW圖神經網絡最新研究進展
    沙龍名稱:圖神經網絡(GNN)最新研究進展活動主辦:美團、圖與推薦、DataFunTalk直播時間:2021年2月27日(本周六),09:30-12:00直播地點:DataFunTalk直播間01分享日程阿里 / 微信 Research
  • 六篇 CIKM 2019 最新公布的【圖神經網絡(GNN)】長文論文
    CIKM 2019共計收到1030篇長文有效投稿,其中200篇論文被大會錄用,總錄用率約19.4%。圖神經網絡(GNN)相關的論文依然很火爆,小編在官網上查看了,CIKM專門有專題,大約10篇長文接受為GNN專題論文。為此,專知小編提前為大家篩選了六篇GNN 長文論文供參考和學習!
  • CIKM投稿數量1700篇,圖神經網絡成熱門方向,最佳論文紛紛進行圖研究
    本次論文共接收202篇長論文(20%)、107篇短論文(23%)、38篇應用論文(22%)和26篇Demo論文(59%),平均接收率僅為22%。在本次會議中,圖神經網絡成為最大的熱點,相關的tutorial及報告也往往成為參與人員趨之若鶩的重點內容。大會程序主席崔鵬告訴AI科技評論:「從第一天講習班的情況來看,只要涉及到圖,聽的人都比較多。現在大家對深度學習已經基本無感了,但圖神經網絡是一個值得研究方向,是深度學習的下一波研究。」
  • 三篇論文,解讀神經網絡壓縮
    機器之心原創 作者:立早 編輯:H4O 本文是一篇關於神經網絡壓縮領域的論文解讀,通過對ICCV 2019中的三篇論文進行分析,讀者可以了解目前的發展趨勢
  • 斯坦福ICLR2019圖網絡最新論文:圖神經網絡的表徵能力有多強?
    GNN 處理非結構化數據時的出色能力使其在網絡數據分析、推薦系統、物理建模、自然語言處理和圖上的組合優化問題方面都取得了新的突破。但是,大部分的圖網絡框架的建立都是基於研究者的先驗或啟發性知識,缺少清晰的理論支撐。
  • ICLR 2017匿名評審惹爭議,盤點10篇被拒卻值得一讀的好論文
    另外,ICLR 的官方 Facebook 主頁有視頻直播,現在也已能看到部分錄製的視頻:https://www.facebook.com/iclr.cc十篇被拒的好論文研究者與開發者、Intuition Machine 聯合創始人 Carlos E. Perez 在 Medium 上發布了一篇文章,介紹了那些 ICLR 2017 卻不幸被拒,但仍有價值的十篇論文。
  • 數十篇滿分論文,接收率26.5%,ICLR2020接收結果,明年非洲見
    ,其中108 篇論文為 spotlight,演講時間 4 分鐘,48 篇論文將進行 10 分鐘以上的 talk。 一位名為 bose_joey 的網友表示,對於自己提交的論文,三位審稿人均給出了 6-6-6 的高分,但領域主席卻做出了不適用自己論文的荒謬批評。更遺憾的是,在論文 rebuttal(評審申訴)階段,領域主席並沒有給出任何實質性意見,也沒有給機會對誤解做出解釋。
  • ICLR 2020 匿名評審九篇滿分論文,最佳論文或許就在其中
    在圖2中,研究者展示了x、y、z三者具體的關係是什麼樣的,不論是語言模型還是翻譯模型,隱藏變量z都是共享的。 評審決定:接收為Talk論文; 評審意見:這篇論文提出了一種新方法以考慮生成式神經機器翻譯模型中的雙向互譯,該方法顯著提升了翻譯準確度。三位評審者都非常欣賞這篇論文,儘管他們注意到性能收益會隨著模型複雜度的提升而變小。
  • 近期必讀的五篇ICLR 2021【圖神經網絡(GNN)】相關論文和代碼
    Benson摘要:圖神經網絡(GNN)是圖學習的主要技術。但是,對於GNN為什麼取得成功以及對性能是否好的必要性了解還很少。在本文中,我們通過將AdaBoost集成到網絡計算中,提出了一種新穎的RNN類深度圖神經網絡架構。提出的圖卷積網絡AdaGCN(Adaboosting圖卷積網絡),具有從當前節點的高階鄰居中高效提取知識,然後以Adaboost方式將鄰居的不同階點中的知識集成到網絡中的能力。
  • ICLR 2018論文評審結果出爐:一文概覽論文 TOP 5
    在明年 1 月 5 日之前,人們將對目前提交的論文進行討論。根據評審得分,我們整理了排名前五的論文。目前,史丹福大學探究神經網絡對抗樣本的論文 Certifiable Distributional Robustness with Principled Adversarial Training 名列第一。今年的 ICLR 大會接收到了 981 篇有效論文。
  • 數十篇滿分論文,接收率26.5%,ICLR 2020接收結果已出,明年非洲見
    逐年上漲的 ICLR 投稿量:2018 年 900 多篇,2019 年 1500 篇,2020 則達到了 2600 多篇。今年,大會拒絕了一部分進行重複提交而違反規定的論文,但被拒絕的論文少於 20 篇。
  • ICLR 2019最佳論文揭曉!NLP深度學習、神經網絡壓縮成焦點
    兩篇最佳論文分別來自Mila/加拿大蒙特婁大學、微軟蒙特婁研究院和MIT CSAIL,主題分別集中在NLP深度學習模型和神經網絡壓縮。今天,ICLR 2019在官網公布了最佳論文獎!兩篇最佳論文分別來自Mila/加拿大蒙特婁大學、微軟蒙特婁研究院和MIT CSAIL,主題分別集中在NLP深度學習模型和神經網絡壓縮。ICLR 是深度學習領域的頂級會議,素有深度學習頂會 「無冕之王」 之稱。今年的 ICLR 大會從5月6日到5月9日在美國紐奧良市舉行。
  • 京東數科16篇論文入選國際頂會AAAI 2021 包括社交推薦等研究領域
    【TechWeb】1月8日消息,近日,國際人工智慧領域頂級學術會議AAAI2021(第35屆AAAI)論文收錄結果出爐,其中,京東數科16篇論文入選,其研究方向包含了聯邦學習、對抗學習、深度學習、序列推薦、社交推薦、圖神經網絡、風險管理的反因果推斷,以及智能城市領域的時空AI等尖端技術領域。
  • ICLR 2019論文解讀:量化神經網絡
    今年五月舉辦 ICLR 2019 會議共接收論文 502 篇,本文將解讀其中兩篇有關量化神經網絡的研究。神經網絡包含兩部分:訓練和推理。由於計算神經元輸入的加權和以及執行神經網絡所需的運算需要大量乘法-累加運算(MAC),所以在傳統的(通用型)數字硬體上訓練神經網絡以及使用神經網絡執行推理的效率很低。DNN 基本上都是在一個或多個圖形處理單元(GPU)上訓練的。本質上而言,GPU 速度很快且支持高度並行,但功耗卻很高。
  • 學界丨先睹為快:神經網絡頂會ICLR 2018論文接受結果速覽
    ICLR全稱International Conference of Learning Representation,是由Lecun,Hinton和Bengio三位神經網絡的元老聯手發起的。近年來隨著深度學習在工程實踐中的成功,ICLR會議也在短短的幾年中發展成為了神經網絡的頂會。
  • 圖神經網絡快速爆發,最新進展都在這裡了
    近年來,圖神經網絡(GNNs)發展迅速,最近的會議上發表了大量相關的研究論文。本文作者正在整理一個GNN的簡短介紹和最新研究報告的摘要。希望這對任何準備進入該領域或試圖趕上最新技術進展的人有所幫助。
  • ICLR 2017即將開幕,機器之心帶你概覽論文全貌
    (註:文中作者使用 JavaScript 進行的可視化動態展示,此文不便於展示,感興趣的讀者可在這裡查看:http://prlz77.github.io/iclr2017-stats)首先,他使用 GloVe 算法對論文摘要詞語進行了可視化,詞語用 t-SNE 技術做了降維:正如所料,網絡、架構、數據、學習……是最常見的詞。
  • ICLR 2017即將開幕,機器之心帶你概覽論文全貌(附最佳論文與直播地址)
    (註:文中作者使用 JavaScript 進行的可視化動態展示,此文不便於展示,感興趣的讀者可在這裡查看:http://prlz77.github.io/iclr2017-stats)首先,他使用 GloVe 算法對論文摘要詞語進行了可視化,詞語用 t-SNE 技術做了降維:正如所料,網絡、架構、數據、學習……是最常見的詞。
  • 7篇ICLR論文,遍覽聯邦學習最新研究進展
    機器之心機器之心分析師網絡作者:仵冀穎編輯:H4O本篇提前看重點關注 ICLR 2020 中關於聯邦學習(Federated Learning)的最新研究進展。今年的 ICLR 論文接受情況如下:共計接收 679 片文章,其中:poster-paper 共 523 篇、Spotlight-paper(焦點論文)共 107 篇、演講 Talk 共 48 篇,另有被拒論文(reject-paper)共計 1907 篇,接受率為 26.48%。
  • ICCV 2019 提前看|三篇論文,解讀神經網絡壓縮
    機器之心原創作者:立早編輯:H4O本文是一篇關於神經網絡壓縮領域的論文解讀,通過對ICCV 2019中的三篇論文進行分析,讀者可以了解目前的發展趨勢。神經網絡壓縮方向是目前深度學習研究的一個熱門的方向,其主要的研究方向是壓縮,蒸餾,網絡架構搜索,量化等。在 ICCV2019 中,不少的研究單位和學者都發表了神經網絡壓縮方向的論文。本文主要以其中三篇論文來研究神經網絡壓縮的目前發展趨勢。