沒有完整圖時,如何使用圖深度學習?你需要了解流形學習2.0版本

2020-12-27 澎湃新聞

機器之心編譯

編輯:陳萍

流形學習,自 2000 年在著名的科學雜誌《Science》被首次提出以來,已成為信息科學領域的研究熱點。可能很多人會問,流形學習有什麼用呢?首先流形學習可以作為一種數據降維的方式,第二,流形能夠刻畫數據的本質。其主要代表方法有等距映射、局部線性嵌入等。那麼,具有流形學習 2.0 之稱的潛圖學習方法如何呢?

自從神經網絡提出以來,其在人臉識別、語音識別等方面表現出卓越的性能。以前需要人工提取特徵的機器學習任務,現在通過端到端的方法就能解決。

傳統的深度學習方法在提取歐氏空間數據(比如圖片是規則的正方形柵格,語音數據是一維序列)的特徵方面取得了巨大的成功。但是,在許多任務中,數據不具備規則的空間結構,即非歐氏空間下的數據,如電子交易、推薦系統等抽象出來的圖譜,圖譜中每個節點與其他節點的連接不是固定的。在經典的 CNN、RNN 等框架無法解決或效果不好的情況下,圖神經網絡應運而生。

圖左(紅框):歐氏空間數據;圖右:非歐氏空間數據。

圖神經網絡利用關係歸納偏置來處理以圖形式出現的數據。然而,在許多情況下,並沒有現成的圖。那麼圖深度學習適用於這類情形嗎?本文將介紹潛圖學習(latent graph learning)和更早的流形學習(manifold learning)。

潛圖學習

在過去的幾年裡,人們對使用機器學習方法處理圖結構數據產生了濃厚的興趣。這類數據自然也出現在許多應用中,例如社會科學(如 Twitter 或 Facebook 上的用戶 Follow 圖)、化學(分子可被建模為鍵連接的原子圖)或生物學(不同生物分子之間的相互作用通常被建模為相互作用組圖)。圖神經網絡(GNN)是一種特別流行的圖學習方法,該算法通過在相鄰節點之間交換信息的共享參數進行局部操作。

然而,在某些情況下,沒有現成的圖可以作為輸入。在生物學中尤其如此,諸如蛋白質 - 蛋白質相互作用的圖只有部分已知,因為發現蛋白質相互作用的實驗費用昂貴,而且噪聲很大。因此,研究者從數據中推斷出圖並在其上應用 GNN,並將其稱為「潛圖學習」。潛圖學習特定於應用,並針對下遊任務進行了優化。此外,有時這樣的圖可能比任務本身更重要,因為它可以傳達關於數據的重要洞察,並提供解釋結果的方法。

潛圖學習是學習具有空邊集的圖。在這一設置中,輸入為高維特徵空間中的點雲。在集合上進行深度學習的方法(如 PointNet)對每個點應用共享可學習 point-wise 函數,與之不同,潛圖學習還尋求跨點信息傳遞。

DGCNN

點雲動態圖卷積神經網絡(DGCNN)是第一個這樣的架構,該架構由麻省理工學院的 Yue Wang 開發。受計算機圖形學中涉及 3D 點雲分析問題的啟發,該架構將圖用作點雲下局部光滑流形結構的粗略表示。Yue 的一個重要發現是,圖在整個神經網絡中不需要保持不變,事實上,它可以而且應該動態更新——因此該方法被命名為 DGCNN。

DGCNN 動態構造一個用於特徵擴散的 k 近鄰圖。圖依賴於任務,並在每個層之後更新。這幅圖(摘自 [4])展示了與紅點的距離(黃色代表更近的點),表明在分割任務中,更深層次的圖捕捉語義關係而不是幾何關係,如成對的機翼、發動機等。

DGM

DGCNN 的一個局限性是用相同的空間來構造圖和圖上的特徵。Anees Kazi 和 Luca Cosmo 提出了一種新的架構——可微圖模塊(DGM),通過對圖和特徵構造進行解耦來擴展 DGCNN,如下圖所示:

DGM 提供了一種基於輸入數據構造圖並在圖上擴散特徵的機制。(圖源:[5])

當應用於醫學領域問題時,DGM 顯示出優秀的結果,例如根據腦成像數據預測疾病。在這些任務中,研究者獲取到多個患者的電子健康記錄,包括人口統計學特徵(如年齡、性別等)和大腦成像特徵,並嘗試預測患者是否患有神經系統疾病。之前的工作展示了 GNN 在這類任務中的應用,方法是在一個根據人口統計學特徵手工構建的「病人圖」上進行特徵擴散。而 DGM 提供了學習圖的優勢,可以傳達某些特徵在特定診斷任務中是如何相互依賴的。其次,DGM 在點雲分類任務中也擊敗了 DGCNN,不過優勢很小。

流形學習

DGCNN 和 DGM 在概念上與流形學習或非線性降維算法相似,流形學習很早就已出現並流行,且目前仍用於數據可視化。流形學習方法的基本假設是數據具有內在的低維結構。雖然數據可以在數百甚至數千維的空間中表示,但它卻只有幾個自由度,示例如下:

雖然這個數據集中的手部圖像是高維的(64x64 像素構成 4096 個維度),但它們本質上是低維的,可以用兩個自由度來解釋:手腕旋轉和手指伸展。流形學習算法能夠捕捉數據集的這種內在低維結構,並將其在歐幾裡德空間中進行表示。(圖源 [9])

再比如球面上的一點(即三維歐式空間上的點),可以用三元組來表示其坐標:

但事實上這個三維坐標只有兩個變量 θ 和 φ,也可以說它的自由度為 2,正好對應了它是一個二維的流形。

流形學習的目的是捕捉這些自由度,並將數據的維數降至其固有維數。流形學習與 PCA 等線性降維方法的重要區別在於,由於數據的非歐幾裡德結構,我們可能無法通過線性投影恢復流形。如下圖所示,線性降維(左)為線性降維,流形學習(右)為非線性降維。

流形學習算法在恢復「流形」方法上各不相同,但它們有一個共同的藍圖。

首先,創建一個數據表示,通過構造一個 k 近鄰圖來獲取其局部結構。其次,計算數據的低維表示(嵌入),並試圖保留原始數據的結構。這是大多數流形學習方法的區別所在。這種新的表示將原來的非歐幾裡德結構「展平」成一個更容易處理的歐幾裡德空間。第三,一旦計算出表示,就會對其應用機器學習算法(通常是聚類)。

多種流形學習方法的藍圖:首先,將數據表示為圖;其次,計算該圖的低維嵌入;第三,將 ML 算法應用於這種低維表示。

這其中面臨的一項挑戰是圖構建與 ML 算法的分離,有時需要精確的參數調整(例如鄰域數或鄰域半徑),以確定如何構建圖才能使下遊任務正常運行。流形學習算法更嚴重的缺點或許是:數據很少表示為低維的原始形式。例如,在處理圖像時,必須使用各種人工制定的特徵提取技術作為預處理步驟。

圖深度學習提供了一種現代方法,即用單個圖神經網絡代替上文提到的三個階段。例如,在 DGCNN 或 DGM 中,圖的構造和學習是同一架構的一部分:

潛圖學習可以看作是流形學習問題的一種現代設置,在這裡,圖被學習並用作某些下遊任務優化的端到端 GNN pipeline 的一部分。

這種方法的吸引力在於:將單個數據點和它們所在的空間結合在相同的 pipeline 中。在圖像的例子中,我們可以使用傳統的 CNN 從每個圖像中提取視覺特徵,並使用 GNN 來建模它們之間的關係。

PeerNet 是標準 CNN 中基於圖的正則化層,可聚合來自多個圖像的相似像素,從而降低對對抗性擾動的敏感性。(圖源 [12])

潛圖學習的其它應用

潛圖學習還有許多其他有趣的應用。

第一是少樣本學習:利用基於圖的方法從少量樣本中進行歸納(重點:只需要少量帶有標註的樣本)。在計算機視覺中,數據標註量從幾千到上萬不等,成本很高,因此少樣本學習變得越來越重要。

第二是生物學領域:人們經常通過實驗觀察生物分子如蛋白質的表達水平,並試圖重建它們的相互作用和信號網絡。

第三是對物理系統的分析:其中圖可以描述多個對象之間的交互作用。尤其是處理複雜粒子相互作用的物理學家,最近對基於圖的方法表現出了濃厚的興趣。

第四是 NLP 問題:在 NLP 領域中,圖神經網絡可以看作是 transformer 架構的泛化。所提到的許多問題也提出了在圖結構中加入先驗知識,這一結構在很大程度上仍然是開放的:例如,人們可能希望強迫圖遵守某些構造規則或與某些統計模型兼容。

潛圖學習,雖然不是全新的領域,但它為舊問題提供了新的視角。對於圖機器學習問題而言,這無疑是一個有趣的設置,為 GNN 研究人員提供了新的方向。

參考連結:

https://towardsdatascience.com/manifold-learning-2-99a25eeb677d

https://zhuanlan.zhihu.com/p/75307407?from_voters_page=true

從算法到應用,入門聲紋技術。

10月19日,第一講:音頻基礎與聲紋識別。谷歌資深軟體工程師、聲紋識別與語言識別團隊負責人王泉老師將介紹聲紋識別技術相關基礎知識,包括發展歷程、聽覺感知和音頻處理相關基本概念與方法、聲紋領域最核心的應用聲紋識別等。

添加機器之心小助手(syncedai5),備註「聲紋」,進群一起看直播。

© THE END

轉載請聯繫本公眾號獲得授權

投稿或尋求報導:content@jiqizhixin.com

原標題:《沒有完整圖時,如何使用圖深度學習?你需要了解流形學習2.0版本》

閱讀原文

相關焦點

  • 沒有完整圖時,如何使用圖深度學習?需要了解流形學習2.0版本
    那麼,具有流形學習 2.0 之稱的潛圖學習方法如何呢?自從神經網絡提出以來,其在人臉識別、語音識別等方面表現出卓越的性能。以前需要人工提取特徵的機器學習任務,現在通過端到端的方法就能解決。傳統的深度學習方法在提取歐氏空間數據(比如圖片是規則的正方形柵格,語音數據是一維序列)的特徵方面取得了巨大的成功。
  • 「看不見」的圖深度學習=流形學習 2.0?
    編譯 | Mr Bear校對 | 青暮如今引領風潮的圖深度學習與曾經風靡一時的流形學習有何關係?請看本文娓娓道來。圖神經網絡利用關係的歸納偏置獲取以圖的形式存在的數據。然而,在很多情況下,我們並沒有現成的可用的圖。那麼,在這種情況下,是否還仍然還可以應用圖深度學習呢?
  • 124頁哈佛數學系本科論文,帶你了解流形學習的數學基礎
    124頁哈佛數學系本科論文,帶你了解流形學習的數學基礎 2020-11-27 17:12 來源:澎湃新聞·澎湃號·湃客
  • 詳解深度強化學習展現TensorFlow 2.0新特性(代碼)
    新智元報導 來源:Reddit作者:Roman Ring編輯:三石、肖琴【新智元導讀】自TensorFlow官方發布其2.0版本新性能以來,不少人可能對此會有些許困惑。因此博主Roman Ring寫了一篇概述性的文章,通過實現深度強化學習算法來具體的展示了TensorFlow 2.0的特性。
  • 思維導圖學習:探究東尼.博贊的《記憶導圖》
    莉莉反駁道:你沒有跟我說呀!她媽媽開始了她的一段回憶說:上個星期五我們在吃麥當勞的時候說的(第一個記憶過程的聯想點),莉莉似乎有點印象了,但是還是堅持說沒有說過,莉莉的媽媽繼續道來,在吃麥當勞那天,正好一個警察追小偷(第二個記憶的回憶點),莉莉突然又有了些印象,想了一會說:「是的,是有一個警察在裡面追小偷,你沒有說洗茶杯的事啊!」,莉莉的媽媽繼續說,那個小偷跑的時候把你桌上茶杯打翻了啊!
  • RPI-IBM團隊提出圖結構&表徵聯合學習新範式IDGL:用於圖神經網絡的...
    GNN雖好,卻有一個所有GNN研究和應用人員都必須要面對的問題:使用GNN的一個必要前提是,數據必須被構建成圖結構的形式。而在大部分GNN的應用領域中,由於種種原因 (比如存在噪聲、圖結構不完整等) ,已有的圖結構數據對於下遊任務而言並不一定是最優的,或者在如NLP等一些應用領域中,數據的圖結構往往是未知的。
  • 如何利用物理思想幫助機器「升維學習」?
    沒有它,就沒有電腦、網際網路、雷射、導航、量子通信和計算機……量子與你我同在。《上帝的骰子》是一本可以笑著看完的量子物理漫畫書,集故事性和科學性於一體。普朗克、愛因斯坦、玻爾、海森伯、薛丁格輪番登場,上演大神的戰爭,讓你輕鬆了解量子前沿科技。
  • Google首席科學家韓國大學演講:大規模深度學習
    增強學習也適用,這也是AlphaGo用到的技術。什麼是深度學習?深度網絡模型是類似於大腦行為的原理。但不是具體模擬神經元如何工作。而是一種簡單抽象的神經元版本。你可以通過所有樣本去聚合,這樣可以降低錯誤率。學習算法其實比較簡單如下選擇隨機訓練樣本「(輸入,標籤)」,比如上面貓圖和想要的輸出標籤,『貓』運行神經網絡,在輸入上去查看它產生的。調整邊的權重讓最後輸出更接近於「標籤」上的。如何調整邊的權重去保障輸出更接近於標籤呢?
  • 一文探討可解釋深度學習技術在醫療圖像診斷中的應用
    因此,在醫學、金融、自動駕駛等領域中深度學習方法尚未實現廣泛的推廣應用。可解釋性是指當人們在了解或解決一件事情的過程中,能夠獲得所需要的足夠的可以理解的信息。深度學習方法的可解釋性則是指能夠理解深度學習模型內部機制以及能夠理解深度學習模型的結果。
  • 擅用思維導圖,讓你的學習效率提高10倍
    權威統計使用思維導圖可以提高學習工作效率20%,讓學習者一周多出一天來!如下是一副典型的思維導圖(圖片來自百度百科):那麼,如何使用思維導圖來快速學習,提高效率呢?轉來一篇來自棲息穀「warfalcon」的原創分享吧!
  • 我的深度學習入門路線
    前言說實話,紅色石頭也是一個美劇迷,特別是一些燒腦的美劇,更是一追再追。前段時間,《西部世界》第二季也完結了。紅色石頭一鼓作氣,看完之後,大呼過癮,深深地被其中栩栩如生的人工智慧機器人所吸引。不禁感嘆:現實世界真的會出現這樣厲害的人工智慧嗎?這雖然是一個看似遙遠的事情,但也真的不好說沒有可能!縱觀這幾年,深度學習發展非常迅速,發展勢頭一直高歌猛進。
  • 如此多的深度學習框架,為什麼我選擇PyTorch?
    這些深度學習框架被應用於計算機視覺、語音識別、自然語言處理與生物信息學等領域,並獲取了極好的效果。本部分主要介紹當前深度學習領域影響力比較大的幾個框架,限於筆者個人使用經驗和了解程度,對各個框架的評價可能有不準確的地方。
  • 英偉達Volta架構深度解讀:專為深度學習而生的Tensor Core到底是什麼?
    而解決這些日益複雜的問題則需要日益複雜的深度學習模型,為深度學習提供強大的計算硬體是英偉達努力的目標。圖 1. Tesla V100 加速卡內含 Volta GV100 GPU,以及 SXM2 Form Factor。高性能計算設備(HPC)是現代科學的基礎,從預測天氣、發明新藥到尋找新能源,大型計算系統能為我們模擬和預測世界的變化。
  • 使用深度學習對狗狗品種進行分類——常被弄混的居然是這兩種?
    但是正如我們注意到,僅僅120個不同品種共20K個圖像(相當於每個品種約200個圖像)是不足以用來訓練深度神經網絡的。 儘管卷積神經網絡(CNN)是目前用於圖像分類的最好的機器學習模型,在這種情況下,沒有足夠的訓練樣例來訓練它,我們是無法從這個數據集中通過機器學習得到足夠的通用模型來識別不同的犬種。這很有可能導致模型對少量訓練樣例的過度擬合,因此測試集的準確性會很低。
  • |深度學習探索可編程RNA開關
    當直接根據核苷酸序列而不是熱力學特徵來訓練模型時,即使是對於外部數據集,性能也有所改善,這表現了使用深度學習和高通量數據集對RNA合成生物學工具進行建模的價值,消除了目前對機械理性參數的假設。高容量模型的預測性能:在一個熱序列輸入上訓練了CNN,在一個熱序列輸入上訓練了LSTM,並在二維one-hot互補圖表示輸入上訓練了CNN。
  • 圖注意力網絡一作:圖表徵學習在算法推理領域的研究進展
    Veličković 指出,算法推理是圖表徵學習的一個令人激動的新領域,他希望自己的這次演講能夠吸引更多的人了解或關注這個領域,為該領域的研究貢獻一份力量。其實,在此之前,Petar Veličković 還在 WWW'20 上做過一個時長為 48 分鐘的演講。這個演講的主題是,如何利用目前圖表徵學習的最新研究來支撐並增強算法推理類型的任務,同時討論從長遠來看這對神經網絡框架會帶來哪些益處。這個演講和 Veličković 的博士論文互為補充,可以幫你了解更多關於圖神經網絡的內容。
  • 深度| 如何理解深度學習的優化?通過分析梯度下降的軌跡
    選自offconvex作者:Nadav Cohen機器之心編譯參與:Panda深度學習很大程度上仍是一個黑箱,但研究者一直沒有停下理解它的步伐。普林斯頓高等研究院的研究者 Nadav Cohen 近日發文介紹了理解深度學習優化的進展以及他們近期在這方面的一項研究成果。
  • 2020年深度學習發展大盤點及對2021年深度學習的未來展望|極客雲算
    越來越多的人因為這一點開始學習PyTorch,不過其在工業界的部署問題也不容迴避。顯然,當你充分了解到這些利弊時,就應該明白這些深度學習框架都是工具,學的越多,可選擇的餘地越大。 當前,人工智慧技術發展和應用落地速度較快,但對於大多數公司而言人工智慧技術發展所需要的人才、資金、時間成本仍然是瓶頸所在。深度學習框架是人工智慧基礎設施中的基礎工具,是AI產業商業化的重要根基。如果沒有框架,傳統的研發異常艱苦,需要複雜的算法工程、漫長的研發周期、巨大的人力成本。
  • 「深度學習」基於RNN實現特定庫的分子生成的遷移學習指南
    通過對不同的遷移學習的配置實驗,作者提出了在基於RNN的分子生成任務中使用遷移學習的經驗性原則和建議。對於藥物設計來說,具有特定功能的分子才是我們所需要的。但是相應的特定功能的分子資料庫往往數據量比較小,因此針對於小數據任務的遷移學習經常被應用到其中。常用的操作是讓模型首先在龐大初始分子資料庫上學習基本知識,確保生成分子的有效性,隨後再遷移到作為目標的小資料庫上學習特定的功能。本文的作者試圖通過計算實驗探究目標數據集如何影響模型的遷移學習的表現。
  • 如何用思維導圖提高自己的學習能力?
    經過十幾年的習慣養成,現在只要出去學習聽課,都會帶著筆記本電腦打開思維導圖軟體邊聽邊梳理學到的內容,有時候甚至能發現講師的很多邏輯錯誤。影響學習能力的底層邏輯學習能力有高低,刨除智力不同,最根本原因是對待知識的主被動關係,也就是面對知識你是接收者,還是轉述者。