1. How to Find Your Friendly Neighborhood: Graph Attention Design with Self-Supervision
作者:Dongkwan Kim, Alice Oh
摘要:圖神經網絡中的注意力機制將較大的權重分配給重要的鄰居節點,得到更好的表示。但是,圖注意力機制學習到的內容不能理解,尤其是圖存在噪聲時。在本文中,我們提出了一種自監督的圖注意力網絡(SuperGAT),這是一種針對噪聲圖的改進圖注意力模型。具體來說,我們用自監督的兩種注意力形式來預測邊,邊的存在和缺失都包含有關節點之間關係重要性的信息。通過對邊進行編碼,SuperGAT在區分錯誤連接的鄰居時會獲得更多可表達的注意力。我們發現兩個圖的特性會影響注意力形式和自監督的有效性:同構和平均程度。因此,當知道兩個圖的特性時,我們的方法可為使用哪種注意力設計提供指導。我們對17個公開數據集進行的實驗表明,我們的方法適用於其中的15個數據集,並且我們的方法設計的模型比基線模型性能更高。
網址:
https://openreview.net/forum?id=Wi5KUNlqWty
2. Combining Label Propagation and Simple Models Out-performs Graph Neural Networks
作者:Qian Huang, Horace He, Abhay Singh, Ser-Nam Lim, Austin R. Benson
摘要:圖神經網絡(GNN)是圖學習的主要技術。但是,對於GNN為什麼取得成功以及對性能是否好的必要性了解還很少。對於許多標準的transductive節點分類基準,通過將忽略圖結構的淺層模型與兩個探索標籤結構相關性的簡單後處理步驟結合起來,我們可以超越或達到現存最新好GNN模型的性能:(i)「誤差相關性」,它在訓練數據中分散剩餘的錯誤來糾正測試數據中的錯誤;(ii)「預測相關性」,它使對測試數據的預測變得平滑。我們稱此總體過程為「糾正和平滑(C&S)」,後處理步驟是通過對早期基於圖的半監督學習方法中標準標籤傳播技術進行簡單修改而實現的。我們的方法在各種基準上都超過或接近了最好的GNN的性能,而參數卻很少,運行時間也快了幾個數量級。例如,我們以137倍的參數減少和超過100倍的訓練時間超過了OGB-Products數據集上最好的GNN性能。我們方法的性能著重於如何將標籤信息直接整合到學習算法中(就像傳統技術一樣),從而獲得簡單而可觀的性能提升。我們還可以將我們的技術整合到大型GNN模型中,從而獲得適度的提升。我們的OGB結果代碼位於:
https://github.com/Chillee/CorrectAndSmooth
網址:
https://arxiv.org/abs/2010.13993
3. AdaGCN: Adaboosting Graph Convolutional Networks into Deep Models
作者:Ke Sun, Zhouchen Lin, Zhanxing Zhu
摘要:深度圖模型的設計仍有待研究,關鍵部分是如何有效地探索和利用來自鄰居不同階點的知識。在本文中,我們通過將AdaBoost集成到網絡計算中,提出了一種新穎的RNN類深度圖神經網絡架構。提出的圖卷積網絡AdaGCN(Adaboosting圖卷積網絡),具有從當前節點的高階鄰居中高效提取知識,然後以Adaboost方式將鄰居的不同階點中的知識集成到網絡中的能力。與直接堆疊許多圖卷積層的其他圖神經網絡不同,AdaGCN在所有``層''之間共享相同的基礎神經網絡架構,並且經過遞歸優化,類似於RNN。此外,我們還在理論上建立了AdaGCN與現有圖卷積方法之間的聯繫,從而展示了我們的方法的好處。最後,大量的實驗證明了跨不同標籤比率的圖始終如一的最新預測性能以及我們的方法AdaGCN的計算優勢。
網址:
https://www.zhuanzhi.ai/paper/1b3d8040b07d9794ac9ecfff5381a138
4. Adaptive Universal Generalized PageRank Graph Neural Network
作者:Eli Chien, Jianhao Peng, Pan Li, Olgica Milenkovic
摘要:在許多重要的圖數據處理應用程式中,獲取的信息有節點特徵和圖拓撲結構。圖神經網絡(GNN)旨在利用這兩種信息,但是是用一種通用的方式對其進行整合,並沒有一個最佳權衡策略。通用性是指同構或異構圖假設的獨立性。我們通過引入一種新的廣義PageRank(GPR)GNN架構來解決這些問題,該架構可以自適應地學習GPR權重,從而聯合優化節點特徵和拓撲信息提取,而不管節點標籤同構或異構程度。學習的GPR權重自動調整為節點標籤模式,與初始化類型無關,從而為通常難以處理的標籤模式保證了出色的學習性能。此外,它們允許避免特徵過度平滑,這一過程使特徵信息無差別化,而無需網絡很淺。我們在上下文隨機塊模型生成的新型合成基準數據集有上對GPR-GNN方法進行了理論分析。我們還在知名的基準同質和異類數據集上,將我們的GNN架構與幾個最新的GNN的節點分類問題進行了性能比較。結果表明,與現有方法相比,GPR-GNN在合成數據和基準數據上均提供了顯著的性能改進。
網址:
https://www.zhuanzhi.ai/paper/89f5d6d14c6f2bf24ee21e86163b9600
5. How Neural Networks Extrapolate: From Feedforward to Graph Neural Networks
作者:Keyulu Xu, Mozhi Zhang, Jingling Li, Simon S. Du, Ken-ichi Kawarabayashi, Stefanie Jegelka
摘要:我們研究了通過梯度下降訓練的神經網絡如何外推,即它們在訓練分布的支持範圍之外學到了什麼。以前的工作在用神經網絡外推時報告了混合的經驗結果:雖然多層感知器(MLP)在簡單任務中無法很好地推理,但圖神經網絡(GNN)是帶有MLP模塊的結構化網絡,在較複雜的任務中也有一定的成功。我們提供了理論上的解釋,並確定了MLP和GNN良好推斷的條件。我們首先顯示受梯度下降訓練的ReLU MLP沿原點的任何方向迅速收斂到線性函數,這表明ReLU MLP無法在大多數非線性任務中很好地推斷。另一方面,當訓練分布足夠「多樣化」時,ReLU MLP可以證明收斂到線性目標函數。這些觀察結果得出一個假設:如果我們在體系結構和輸入表示中編碼適當的非線性,則GNN可以很好地推斷出動態編程(DP)任務。我們為該假設提供理論和經驗支持。我們的理論解釋了先前的外推法成功並提出了其局限性:成功的外推法依賴於結合特定於任務的非線性,這通常需要領域知識或廣泛的模型搜索。
網址:
https://www.zhuanzhi.ai/paper/d5896ff106f9cddfd5d0c6ce7f95cb2c