Optimization and Generalization Analysis of
Transduction through Gradient Boosting and
Application to Multi-scale Graph Neural Networks
目前的圖神經網絡(gnn)由於過度平滑的問題,難以實現深度學習。多尺度GNNs可能是解決過平滑問題的一種有效方法,比如JKNet,將中間層跟最後層合併在一起。然而,很少有人從學習理論的角度來解釋為什麼有效。
在本研究中,作者推導了包含多尺度GNN的transductive learning算法的優化和泛化保證。利用集成學習理論,證明了弱學習條件下訓練誤差的收斂性。通過與Rademacher complexity泛化邊界理論相結合,證明了在一定條件下,一種特定類型的多尺度GNN的測試誤差界隨節點聚集數的減少而減小。
本文給多尺度結構對抗過平滑問題的有效性提供了理論解釋。進一步,作者將boosting算法應用到多尺度GNN的訓練中,完成實際節點預測任務。證實了其性能與現有GNN相當,實際實驗與理論一致。代碼可以在https://github.com/delta2323/GB-GNN上找到。