深度學習時代的圖模型,清華發文綜述圖網絡

2021-01-15 機器之心Pro

選自arXiv

作者:張子威、崔鵬、朱文武

機器之心編譯

參與:路、曉坤

深度學習在多個領域中實現成功,如聲學、圖像和自然語言處理。但是,將深度學習應用於普遍存在的圖數據仍然存在問題,這是由於圖數據的獨特特性。近期,該領域出現大量研究,極大地提升了圖分析技術。清華大學朱文武等人綜述了應用於圖的不同深度學習方法。

他們將現有方法分為三個大類:半監督方法,包括圖神經網絡和圖卷積網絡;無監督方法,包括圖自編碼器;近期新的研究方法,包括圖循環神經網絡和圖強化學習。然後按照這些方法的發展史對它們進行系統概述。該研究還分析了這些方法的區別,以及如何合成不同的架構。最後,該研究簡單列舉了這些方法的應用範圍,並討論了潛在方向。

引言

近十年,深度學習成為人工智慧和機器學習這頂皇冠上的明珠,在聲學、圖像和自然語言處理領域展示了頂尖的性能。深度學習提取數據底層複雜模式的表達能力廣受認可。但是,現實世界中普遍存在的圖卻是個難點,圖表示對象及其關係,如社交網絡、電商網絡、生物網絡和交通網絡。圖也被認為是包含豐富潛在價值的複雜結構。因此,如何利用深度學習方法進行圖數據分析近年來吸引了大量的研究者關注。該問題並不尋常,因為將傳統深度學習架構應用到圖中存在多項挑戰:

不規則領域:與圖像不同,音頻和文本具備清晰的網格結構,而圖則屬於不規則領域,這使得一些基礎數學運算無法泛化至圖。例如,為圖數據定義的卷積和池化操作並不是直接的,而這些是卷積神經網絡(CNN)中的基礎操作。這通常被稱為幾何深度學習問題 [7]。

多變的結構和任務:圖具備多樣化的結構,因此比較複雜。例如,圖可以是同質的也可以是異質的,可以是加權的也可以不加權,可以是有符號的也可以是無符號的。此外,圖任務也有很多種,從節點問題(如節點分類和連接預測)到圖問題(如圖分類和圖生成)不一而足。多變的結構和任務需要不同的模型架構來解決特定的問題。

可擴展性和並行化:在大數據時代,實際的圖數據很容易擴展成數百萬節點和邊,如社交網絡或電商網絡。因此,如何設計可擴展模型(最好具備線性時間複雜度)成為關鍵的問題。此外,由於圖中的節點和邊是互連的,通常需要作為一個整體來建模,因此如何實施並行化計算是另一個關鍵問題。

跨學科:圖通常與其他學科有關,如生物學、化學或社會科學。這種跨學科性質提供了機會,當然也有挑戰:領域知識可用於解決特定問題,但集成領域知識可能使模型設計更難。例如,在生成分子圖時,目標函數和化學約束通常是不可微的,因此無法輕鬆使用基於梯度的訓練方法。

為了解決這些挑戰,研究人員付出了大量努力,因此該領域有大量相關論文和方法的文獻。之前研究採用的架構也是變化萬千,從監督式方法到無監督方法,從卷積網絡到遞歸網絡都有。但是,幾乎沒有什麼研究系統性概述這些方法之間的區別和聯繫。

本研究嘗試通過對圖深度學習方法的綜述填補這一空白。如圖 1 所示,該研究將現有方法分為三個大類:半監督方法、無監督方法和近期進展。具體來說,半監督方法包括圖神經網絡(GNN)和圖卷積網絡(GCN),無監督方法主要包括圖自編碼器(GAE),近期進展包括圖循環神經網絡和圖強化學習。這些方法的主要區別如表 1 所示。大體上,GNN 和 GCN 是半監督方法,因為它們利用節點屬性和節點標籤端到端地訓練模型參數,而 GAE 主要使用無監督方法學習表徵。近期的先進方法使用其它獨特的算法(不歸屬前兩個類別)。除了這些高層次的區別外,在模型架構上也存在很大不同。本論文主要按照這些方法的發展史和如何解決圖問題進行詳細綜述。本研究還分析了這些模型的區別,以及如何合成不同的架構。文章最後,簡單概述了這些方法的應用和潛在方向。

圖 1:圖深度學習方法分類。

表 1:圖深度學習方法的主要區別。

表 2:常用符號表。

圖神經網絡(GNN)

這部分介紹適用於圖數據的最初半監督方法——圖神經網絡(GNN)。

GNN 的來源可以追溯到「前深度學習」時代。GNN 的思路很簡單:為了編碼圖的結構信息,可以用低維狀態向量 s_i(1 ≤ i ≤ N)表示每個節點 v_i。受遞歸神經網絡的啟發,這裡採用狀態的遞歸定義:

其中 F(·) 是待學習的參數函數。得到 s_i 以後,使用另一個參數函數 O(·) 獲取最終輸出:

對於圖任務,這些研究建議添加一個對應整個圖獨特屬性的特殊節點。為學習模型參數,可採用以下半監督方法:在使用雅各比方法迭代地求解 Eq. (1),使之達到穩定點之後,使用 Almeida-Pineda 算法執行一個梯度下降步,以最小化任務特定的目標函數(例如回歸任務的預測值和真值之間的平方誤差);然後,重複該過程直到收斂。

在 Eqs. (1)(2) 這兩個簡單公式的幫助下,GNN 扮演了兩個重要角色。GNN 結合了處理圖數據的一些早期方法,如遞歸神經網絡和馬爾可夫鏈。GNN 的理念也為未來研究提供了一些啟發:未來我們會發現,一些當前最優的 GCN 實際上具備與 Eq. (1) 類似的公式,同時也遵循與近鄰交換信息的框架。事實上,GNN 和 GCN 可以被統一成一個框架,GNN 等同於使用相同層到達穩定狀態的 GCN。

儘管 GNN 理論上很重要,它也有一些缺陷。首先,要確保 Eq. (1) 有唯一解,F(·) 必須是「壓縮映射」(contraction map),這嚴重限制了建模能力。其次,由於梯度下降步之間需要很多次迭代,GNN 的計算成本高昂。由於這些缺陷、算力的缺乏(那時候 GPU 並未廣泛用於深度學習)以及缺乏研究興趣,當時 GNN 並不為社區所熟知。

GNN 的一個重大改進是門控圖-序列神經網絡(Gated Graph Sequence Neural Network,GGS-NN)[26]。其作者將 Eq. (1) 的遞歸定義換成了門控循環單元(GRU)[27],從而移除了對「壓縮映射」的需求,並且該網絡支持使用現代優化技術。Eq. (1) 被替換成:

GNN 及其擴展有很多應用。如 CommNet [29] 使用 GNN 學習 AI 系統中的多智能體溝通,它將每個智能體作為一個節點,並在執行動作前先與其他智能體進行多個時間步的溝通來更新智能體狀態。Interaction Network (IN) [30] 使用 GNN 進行物理推理,它將對象表示為節點、將關係表示為邊、使用偽時間作為模擬系統。VAIN [31] 引入了注意力機制來衡量不同的交互,從而改進了 CommNet 和 IN。關係網絡 (RN) [32] 使用 GNN 作為關係推理模塊,來增強其他神經網絡,在視覺問答任務上取得了不錯的結果。

圖卷積網絡(GCN)

表 3:不同圖卷積網絡(GCN)的對比。

圖自編碼器(GAE)

自編碼器(AE)及其變體在無監督學習中得到廣泛使用,它適合在沒有監督信息的情況下學習圖的節點表徵。這部分首先介紹圖自編碼器,然後介紹圖變分自編碼器和其他改進版變體。

GAE 的主要特徵見下表:

表 4:不同圖自編碼器(GAE)的對比。

自編碼器

用於圖的 AE 來源於稀疏自編碼器(Sparse Autoencoder,SAE)。其基本思路是,將鄰接矩陣或其變體作為節點的原始特徵,從而將 AE 作為降維方法來學習低維節點表徵。具體來說,SAE 使用以下 L2 重建損失:

實驗證明 SAE 優於非深度學習基線模型。但是,由於其理論分析不正確,支持其有效性的底層機制尚未得到解釋。

結構深度網絡嵌入(Structure Deep Network Embedding,SDNE)[76] 解決了這個難題,它表明 Eq. (35) 中的 L2 重建損失對應二階估計,即如果兩個節點具備類似的近鄰,則它們共享類似的隱藏表徵。受表明一階估計重要性的網絡嵌入方法的啟發,SDNE 修改了目標函數,添加了一個類似於拉普拉斯特徵映射的項:

圖 7:SDNE 框架圖。節點的一階估計和二階估計都使用深度自編碼器來保存。

受到其他研究的啟發,DNGR [77] 將 Eq. (35) 中的轉換矩陣 P 替換成隨機 surfing 概率的正逐點互信息(PPMI)矩陣。這樣,原始特徵可以與圖的隨機遊走概率關聯起來。但是,構建這樣的輸入矩陣需要 O(N^2 ) 的時間複雜度,無法擴展到大規模圖。

GC-MC [78] 進一步採取了不同的自編碼器方法,它使用 [36] 中的 GCN 作為編碼器:

解碼器是簡單的雙線性函數:

DRNE [79] 沒有重建鄰接矩陣或其變體,而是提出另一種修改:使用 LSTM 聚合近鄰信息,從而直接重建節點的低維向量。具體來說,DRNE 最小化以下目標函數:

與之前研究將節點映射到低維向量的做法不同,Graph2Gauss (G2G) [80] 提出將每個節點編碼為高斯分布 h_i = N (M(i, :), diag (Σ(i, :))),以捕獲節點的不確定性。具體來說,作者將從節點屬性到高斯分布均值和方差的深度映射作為編碼器:

變分自編碼器

與之前的自編碼器不同,變分自編碼器(VAE)是另一種將降維與生成模型結合的深度學習方法。VAE 首次在 [81] 中提出用於建模圖數據,其解碼器是一個簡單的線性乘積:

至於均值和方差矩陣的編碼器,作者採用 [36] 中的 GCN:

由於完整圖需要重建,其時間複雜度為 O(N^2)。

受 SDNE 和 G2G 的啟發,DVNE [82] 提出另一個用於圖數據的 VAE,它也將每個節點表示為高斯分布。但與之前使用 KL 散度作為度量的研究不同,DVNE 使用 Wasserstein 距離來保留節點相似度的傳遞性。與 SDNE 和 G2G 類似,DVNE 也在目標函數中保留一階估計和二階估計:

重建損失為:

圖 8:DVNE 框架圖。DVNE 使用 VAE 將節點表示為高斯分布,並採用 Wasserstein 距離來保留節點相似度的傳遞性。

其他改進

圖 9:ARGA/ARVGA 框架圖。該方法向 GAE 添加了對抗訓練機制。(圖中的符號與本文主題略有不同,圖中的 X 和 Z 分別對應 F^V and H。

近期進展

下表展示了近期進展中多種方法的特徵。

圖循環神經網絡(Graph RNN)

You et al. [94] 將 Graph RNN 應用到圖生成問題中。他們使用兩個 RNN,一個用於生成新節點,另一個自回歸地為新添加的節點生成邊。他們展示了這種分層 RNN 架構可以從輸入圖中高效學習,且時間複雜度也是可接受的。

動態圖神經網絡(Dynamic Graph Neural Network,DGNN)[95] 使用時間感知 LSTM [100] 來學習動態圖中的節點表徵。在建立新的邊之後,DGNN 使用 LSTM 更新兩個交互節點(interacting node)及其直接近鄰的表徵,即考慮一步傳播效應(one-step propagation effect)。作者展示了時間感知 LSTM 可以很好地建模邊結構的已建立順序以及時間間隔,這反過來惠及大量圖應用。

也可以將 Graph RNN 結合其他架構,如 GCN 或 GAE。例如,RMGCNN [96] 將 LSTM 應用於 GCN 的結果,以漸進地重建圖(如圖 10 所示)。該方法旨在解決圖稀疏性問題。動態 GCN [97] 使用 LSTM 收集動態網絡中不同時間片的 GCN 結果,旨在捕獲時空圖信息。

圖 10:RMGCNN 架構圖。RMGCNN 將 LSTM 添加到 GCN 中,以漸進地重建圖。

圖強化學習

GCPN [98] 使用強化學習執行目標導向的模塊化圖生成任務,以處理不可微目標和約束。具體來說,作者將圖生成建模為馬爾可夫決策過程,將生成模型作為在圖生成環境中運行的強化學習智能體。GCPN 將類似智能體動作作為連接預測問題,使用領域特定獎勵和對抗獎勵,使用 GCN 來學習節點表徵,從而通過策略梯度方法實現端到端地訓練。實驗結果證明 GCPN 在多種圖生成問題上的有效性。

MolGAN [99] 採取了類似的思路,它使用強化學習來生成模塊化圖。不過它不是通過一系列動作來生成圖,而是直接生成整個圖,該方法比較適用於小分子。

結論與討論

應用。除了標準的圖推斷任務(如節點分類或圖分類)基於圖的深度學習方法還被應用於大量學科,如建模社會影響力 [103]、推薦 [51], [78], [96]、化學 [37], [41], [50], [98], [99]、物理 [104], [105]、疾病預測或藥物預測 [106]–[108]、自然語言處理 [109], [110]、計算機視覺 [111]–[114]、交通預測 [115], [116]、程序歸納 [117],以及解決基於圖的 NP 問題 [118], [119]。

還有一些值得討論的方向:

不同類型的圖。圖數據的結構變化萬千,現有方法無法處理所有結構。例如,大部分方法聚焦於同質圖,很少有研究涉及異質圖,尤其是包含不同模態的圖。有符號網絡(其負邊表示節點之間的衝突)也有獨特結構,對現有方法提出了挑戰。表示兩個以上對象之間複雜關係的超圖(Hypergraph)也未得到完備研究。接下來重要的一步是涉特定的深度學習模型來處理這些不同類型的圖。

動態圖。大部分現有方法聚焦於靜態圖。然而,很多現實中的圖是動態的,其節點、邊和特徵都會隨著時間而改變。例如,在社交網絡中,人們可能建立新的社交關係、刪除舊的關係,其愛好和職位等特徵都會隨著時間改變。新用戶可能會加入社交網絡,老用戶也可能離開。如何建模動態圖不斷變化的特徵,支持逐漸更新的模型參數?這個問題仍然是個開放性問題。一些初步研究嘗試使用 Graph RNN 架構解決該問題,結果令人鼓舞 [95], [97]。

可解釋性。由於圖通常與其他學科相關,解釋圖深度學習模型對於決策問題來說是關鍵。例如,在醫療問題中,可解釋性在將計算機經驗轉換為臨床使用中必不可少。但是,基於圖的深度學習模型比其他黑箱模型更難解釋,因為圖中的節點和邊高度關聯。

複合性。如前所述,很多現有架構可以結合起來使用,例如將 GCN 作為 GAE 或 Graph RNN 中的一個層。除了涉及新的構造塊以外,如何符合這些已有架構是一個有趣的未來研究方向。近期研究 Graph Networks [9] 跨出了第一步,它使用 GNN 和 GCN 的通用框架來解決關係推理問題。

總之,上述調查展示了基於圖的深度學習是一個很有前景並發展迅速的領域,機會與挑戰並存。研究基於圖的深度學習為建模關係數據提供了關鍵的構造塊,也是走向更好的機器學習和人工智慧時代的重要一步。

本文為機器之心編譯,轉載請聯繫本公眾號獲得授權。

相關焦點

  • 為什麼要進行圖學習?談一談逆勢而上的圖神經網絡
    越大的自監督模型,半監督學習需要的標籤越少KDD2020 | MoFlow:基於流的分子圖生成模型【綜述】圖神經網絡與深度學習在智能交通中的應用:綜述Survey淺談圖上的自監督學習——對比學習論文快訊 | NeurIPS2020 重新思考圖神經網絡中的池化自監督學習 | ICML2020 自監督學習什麼時候可以對GCN有利?
  • 【乾貨】圖神經網絡的十大學習資源分享
    【乾貨】圖神經網絡的十大學習資源分享英語原文:Top 10 Learning Resources for Graph Neural Networks翻譯:雷鋒字幕組(聽風1996)圖神經網絡(GNNs)是深度學習的一個相對較新的領域,從最近開始越來越流行
  • 騰訊優圖推出卷積神經網絡深度學習算法模型
    近年來機器學習算法在醫療領域的大展拳腳(糖尿病視網膜病變/皮膚病/甲狀腺結節等),基於卷積神經網絡算法(機器學習算法一類)的肺結節診斷模型有望解決這一難題。此次騰訊優圖聯合吳一龍教授/鍾文昭教授團隊及多個中心等推出的基於卷積神經網絡算法的肺結節診斷模型,可有望輔助醫生提高結節檢出率的同時兼顧良惡性診斷準確率,大大降低放射科醫師日常CT讀取工作量,同時使得更多患者能夠及時得到早期治療幹預,進一步降低肺癌相關死亡率。作為騰訊覓影核心AI技術的提供方,騰訊優圖實驗室將持續通過騰訊覓影,與更多醫院及醫療機構展開合作,讓技術真正應用落地。
  • 深度學習 vs. 概率圖模型 vs. 邏輯學
    很多早期的人工智慧方法是基於邏輯,並且從基於邏輯到數據驅動方法的轉變過程受到了概率論思想的深度影響,接下來我們就談談這個過程。本文按時間順序展開,先回顧邏輯學和概率圖方法,然後就人工智慧和機器學習的未來走向做出一些預測。圖片來源:Coursera的概率圖模型課1.
  • 對話清華NLP實驗室劉知遠:NLP搞事情少不了知識庫與圖神經網絡
    實際上,從無結構文本中抽取結構化知識形成大規模知識圖譜後,這些知識反過來可以融入深度學習模型中,幫助我們更好地實現對自然語言的理解。我認為這是深度學習模型與知識圖譜不斷互相正反饋的過程:如果有越來越大、越來越精確的知識圖譜,也會有越來越好、越來越魯棒的自然語言理解模型,它們是共同發展的。 機器之心:清華 NLP 實驗室這邊還會關注哪一些前沿研究成果或關注哪些方向?
  • 從數據結構到算法:圖網絡方法初探
    深度學習本質上是一種特徵學習方法,其思想在於將原始數據通過非線性模型轉變為更高層次的特徵表示,從而獲得更抽象的表達。與人工設計特徵不同,深度學習會自動從數據中學習出特徵表示,所以又稱為表示學習(Representation Learning)。
  • 為什麼深度模型在 CV 領域好使,但用在圖網絡上就這麼難呢?
    為什麼深度模型在 CV 領域好使,但用在圖網絡上就這麼難呢?深度學習,特別是 CV 領域的模型,往往有數十上百層,與此相比,在圖「深度學習」中(大部分工作都 ≤5 層,談不上深,所以加個引號吧),大部分模型架構都是淺層的,設計深度模型到底有沒有用呢?
  • 7 Papers & Radios | ACL 2020獲獎論文;貝葉斯深度學習綜述
    在過去十年裡,感知任務已經陸續取得重大進展,比如視覺目標識別以及使用深度學習模型的語音識別。但是,對於更高層次的推理,具有貝葉斯屬性的概率圖模型(Probabilistic Graphical Model, PGM)仍然更加強大和靈活。
  • 清華交叉信息院曾堅陽研究組發文闡釋深度學習解碼蛋白質翻譯過程
    清華交叉信息院曾堅陽研究組發文闡釋深度學習解碼蛋白質翻譯過程 清華新聞網9月29日電  9月27日,清華大學交叉信息研究院曾堅陽研究組在《細胞》子刊《細胞·系統》(Cell Systems)發表了題為《利用深度學習分析核糖體停滯現象與蛋白質翻譯動態》(「Analysis of Ribosome Stalling and Translation
  • Yu 團隊最新綜述!社區發現的深度學習方法:進展、挑戰...
    總而言之,處理由圖及其屬性、大規模網絡和動態環境形成的高維數據需要更強大的技術,從而同時兼顧高性能和計算速度。深度學習使計算模型可以學習到具有多層次抽象的數據表徵。許多計算模型和算法都需要對以網絡結構形式存在的數據進行表徵學習。深度學習技術在學習非線性特徵時具有很大的優勢。
  • 入門| 獻給新手的深度學習綜述
    機器之心認為,這篇綜述對於剛入門的深度學習新手是一份不錯的參考資料,在形成基本學術界圖景、指導文獻查找等方面都能提供幫助。用準確的話總結就是,深度學習是機器學習的一個子領域,它使用了多層次的非線性信息處理和抽象,用於有監督或無監督的特徵學習、表示、分類和模式識別。 深度學習即表徵學習是機器學習的一個分支或子領域,大多數人認為近代深度學習方法是從 2006 開始發展起來的。本文是關於最新的深度學習技術的綜述,主要推薦給即將涉足該領域的研究者。
  • 深度學習之卷積神經網絡經典模型
    隨著ReLU與dropout的提出,以及GPU帶來算力突破和網際網路時代大數據的爆發,卷積神經網絡帶來歷史的突破,AlexNet的提出讓深度學習走上人工智慧的最前端。而後來很多人經過驗證認為,AlexNet模型中所謂的局部歸一化響應浪費了計算資源,但是對性能卻沒有很大的提升。VGG的實質是AlexNet結構的增強版,它側重強調卷積神經網絡設計中的深度。將卷積層的深度提升到了19層,並且在當年的ImageNet大賽中的定位問題中獲得了第一名的好成績。
  • AI求解薛丁格方程;陶大程等深度學習理論進展綜述
    深度神經網絡架構的構建一定程度上受到了生物大腦和神經科學的啟發。就像生物大腦的內部運行機制一樣,深度網絡在很大程度上無法得到解釋,沒有一個統一的理論。對此,來自麻省理工學院(MIT)的研究者提出了深度學習網絡如何運行的新見解,有助於人們揭開人工智慧機器學習的黑匣子。
  • 騰訊AI Lab聯合清華港中文,解讀圖深度學習歷史、進展應用
    騰訊 AI Lab 於 2017 年下半年開始布局圖深度學習的研究,積極探索圖深度學習的應用邊界。並且在各大機器學習數據挖掘頂級會議上發表多篇文章,涉及大圖計算,超深圖神經網絡,無監督圖學習,圖的對抗攻擊,圖的樣本學習等。在未來我們將探索圖深度學習在廣泛場景的應用,如社交推薦,藥物研發等。使其能夠真正造福人類。一 圖與圖神經網絡1 什麼是圖?
  • 超全深度學習細粒度圖像分析:項目、綜述、教程一網打盡
    選自arXiv作者:Xiu-Shen Wei、Jianxin Wu、Quan Cui機器之心編譯參與:李詩萌、張倩在本文中,來自曠視科技、南京大學和早稻田大學的研究者對基於深度學習的細粒度圖像分析進行了綜述,從細粒度圖像識別、檢索和生成三個方向展開論述。此外,他們還對該領域未來的發展方向進行了討論。
  • 張江:從圖網絡到因果推斷,複雜系統自動建模五部曲
    集智俱樂部組織了系列閉門讀書會,在7月5日的第一場討論中,張江直播分享了複雜系統建模的深度學習技術綜述。 本文是對直播內容的整理,錄播視頻已上線,地址見文末。7月12日(周日)晚將進行讀書會第二場,討論兩篇利用圖網絡技術實現複雜系統自動建模的經典文章。系列讀書會目前開放報名中,詳情見文末。
  • 人工智慧利用單眼強度圖像進行面部深度圖估計的對抗架構深度學習
    通過遵循圖像到圖像的方法,我們結合了監督學習和對抗訓練的優勢,提出了一個有條件的生成對抗網絡,有效地學習將強度人臉圖像轉換為相應的深度圖。通過遵循圖像到圖像的方法,我們結合了監督學習和對抗訓練的優勢,提出了一個有條件的生成對抗網絡,有效地學習將強度人臉圖像轉換為相應的深度圖。 兩個公共數據集,即Biwi資料庫和Pandora數據集,被用來證明所提出的模型生成高質量的合成深度圖像,無論是在視覺外觀和信息內容方面。
  • 逆勢而上的技術:圖神經網絡學習來了!
    你一定不會忽略它——圖神經網絡。相比傳統神經網絡,圖神經網絡的優勢非常明顯:1、非順序排序的特徵學習:GNN 的輸出不以節點的輸入順序為轉移的。在實際場景中,有大量的數據是在非歐式空間,限制了深度神經網絡的應用。得益於圖神經網絡在非結構化數據上出色的處理能力,它在學界與工業界上大放光彩。然而,圖神經網絡模型目前仍處於前期高速發展期,面臨著多項方法論和實踐挑戰。
  • 100個深度圖像分割算法,紐約大學UCLA等最新綜述論文
    在前深度學習時代有大量的方法提出,比如分水嶺、GraphCut等。隨著深度學習的興起,大量的算法提出如R-CNN、Mask-RCNN等。對近幾年深度學習圖像分割進行了全面綜述,對現有的深度學習圖像分割研究進行梳理使其系統化,並提出6方面挑戰,幫助讀者更好地了解當前的研究現狀和思路。可作為相關領域從業者的必備參考文獻。
  • 清華張長水等人30頁少樣本學習綜述論文,涵蓋400+參考文獻
    少樣本學習的研究可以追溯到 21 世紀初,近年來隨著深度學習技術的發展它也受到廣泛的關注,但是目前關於 FSL 的綜述文章較少。清華大學教授、IEEE Fellow 張長水等人廣泛閱讀和總結了自 21 世紀初到 2019 年的 300 餘篇論文,寫了一篇關於 FSL 的綜述文章。