通過圖神經網絡了解玻璃

2020-09-25 小熊大學AI

在顯微鏡下,窗玻璃的窗格看起來不像晶體那樣是有序分子的集合,而是看起來雜亂無章的結構。玻璃是從高溫熔融的沙子和礦物質的發光混合物開始製成的。一旦冷卻,其粘度(衡量流體中摩擦力的量)就增加一萬億倍,並且變成固體,抵抗拉伸或拉力的張力。然而,玻璃中的分子仍然保持著一種看似無序的狀態,就像最初的熔融液體一樣——幾乎就像無序的液體已經被瞬間凍結在原地一樣。因此,玻璃轉變首先表現為玻璃分子運動的劇烈阻滯。此過程是否對應於結構相變(如水凍結或超導過渡)是該領域的一個主要開放性問題。了解玻璃動力學的本質是了解原子級性質如何定義許多固體材料的可見特徵的基礎。用最近去世的諾貝爾獎獲得者菲利普·W·安德森(Philip W.Anderson)的話說,他的開創性工作塑造了固態物理學領域:

固態理論中最深,最有趣的未解決問題可能是玻璃的性質和玻璃化轉變理論。

一種液體,當冷卻得過快超過其結晶點時,會變成過冷液體,進一步冷卻後,會變成無序的無定形玻璃。如果冷卻

造型玻璃的實際意義

玻璃轉變是一種普遍存在的現象。例如,當熨燙時,織物中的聚合物被加熱,變成可移動的,然後根據鐵的重量確定方向。對玻璃的更深入的了解可能會在將來帶來實際的進步,但是它們的神秘特性也引發了許多基礎研究問題。儘管人類製造石英玻璃已有至少四千年的歷史,但它們仍被科學家們迷惑不解:關於潛在的物理關聯,例如冷卻過程中發生的粘度增加了數萬億倍,人們尚有許多未知數。

利用圖神經網絡對玻化動力學建模

可以將玻璃建模為粒子通過短程排斥勢相互作用的方法,這實際上可以防止粒子彼此之間過於靠近。這種潛力是關係性的(只有粒子對相互作用)和局部的(只有附近的粒子彼此相互作用),這表明尊重這種局部和關係結構的模型應該是有效的。換句話說,考慮到該系統以類似圖形的結構為基礎,我們認為最好使用圖形結構的網絡對其進行建模,並著手應用圖形神經網絡來預測玻璃的物理外觀。

我們首先創建了一個輸入圖,其中的節點表示粒子,邊表示粒子之間的相互作用,並用它們的相對距離標記。粒子在一定半徑(在這種情況下為2個粒徑)內與其相鄰的粒子連接。然後,我們訓練了如下所述的神經網絡,以預測圖的每個節點的單個實數。該預測最終回歸到從眼鏡的計算機模擬獲得的粒子的遷移率。遷移率是粒子通常運動多少的量度(更嚴格地說,它對應於對初始速度求平均時所經過的平均距離)。

模型架構1

A)從3-D輸入中,連接距離小於2的節點以形成圖形。處理後,網絡會預測每個粒子的遷移率(用不同的顏色表示)。

模型架構2

B)圖網絡的核心首先根據其先前的嵌入及其相鄰節點的嵌入來更新邊,然後根據其先前的嵌入和傳入邊緣的嵌入來更新節點。C)圖網絡由一個編碼器,幾個核心應用程式,一個解碼器組成。每次應用核,都會增加粒子殼的大小,從而有助於給定粒子的預測,此處以中心粒子的顏色顯示(深藍色)。

模型架構:

我們的網絡體系結構是典型的圖網絡體系結構,由多個神經網絡組成。我們首先使用兩個編碼器網絡將節點和邊緣標籤嵌入到高維向量空間中(我們使用了標準的多層感知器)。接下來,我們使用圖B中可視化的兩個更新網絡迭代更新嵌入式節點和邊緣標籤。首先,每個邊緣都基於其先前的嵌入以及與其連接的兩個節點的嵌入進行更新。在使用同一網絡並行更新所有邊緣之後,還使用第二個網絡,基於其相鄰邊緣嵌入和先前嵌入的總和來更新節點。我們重複了幾次此過程(通常為7次),以使本地信息在整個圖形中傳播,如圖C所示。最後,我們使用解碼器網絡從相應節點的最終嵌入中提取了每個粒子的遷移率。生成的網絡具有所有必需的屬性:它是固有的關係型,在圖的節點和邊的置換下不變,並以一種由本地操作組成的方式更新嵌入。網絡參數訓練是通過隨機梯度下降完成的。

為了研究玻璃的完整動態演變,我們構建了一些數據集,這些數據集對應於在不同時間範圍和不同溫度下的遷移率預測。我們注意到,在這些時間維度上,每個粒子都會發生數千次碰撞。因此,網絡必須找到一種方法來粗略地表示系統的長期動態。

將網絡的預測與物理聯繫起來

將圖形網絡應用於我們模擬的三維玻璃後,我們發現它們的性能大大優於現有模型,從標準的物理啟發基準到最新的機器學習模型。將預測的遷移率(顏色梯度,圖3)與真實的真值模擬(點,圖3)進行比較,我們發現該協議在短時間內非常好,並且在玻璃的弛豫時間上保持良好的匹配。觀察玻璃在其弛豫時間的範圍內(對於實際的玻璃而言,這將是數千年的時間),就像在約1皮秒的時間內觀察液體(10 -12):當粒子碰撞到足以開始失去有關其初始位置的信息時,鬆弛時間就會鬆散。從數量上看,我們的預測與模擬的真實性之間的相關性在非常短的時間範圍內為96%,在玻璃的弛豫時間中仍高達64%(與現有技術水平相比提高了40%)。

短時間範圍內的3D預測

短時間範圍內的3D預測

GNN預測的遷移率(從流動性最低的藍色變為紅色,以流動性最大的紅色),與模擬中我們最易移動的粒子(點)在3維盒子的一部分中的位置相比。更好的性能對應於紅色區域和點的更大對齊。此面板對應於短時間範圍內的預測:一種在其中我們的網絡獲得非常出色性能的機制。

長時間範圍內的3D預測

長時間範圍內的3D預測

在此面板中,對應於比頂部面板長28,000倍的時間刻度,玻璃中的粒子已開始擴散。動力學是異構的-粒子遷移率在本地是相關的,但在宏觀尺度上是異構的-但是我們的網絡仍會與地面真相模擬相一致地做出預測。

但是,我們不想簡單地對玻璃建模:我們想了解它。因此,我們探究了哪些因素對我們的模型的成功至關重要,以便推斷出哪些特性對基礎系統至關重要。玻璃動力學中一個尚未解決的中心問題是,粒子如何作為距離的函數相互影響,以及隨著時間的變化。我們通過設計一個利用圖網絡的特定體系結構的實驗來對此進行研究。回憶邊和節點更新的重複應用定義了任何給定粒子周圍的粒子殼:第一個殼包含距離此「標記」粒子僅一步之遙的所有粒子,第二個殼包含距離第一個殼僅一步之遙的所有粒子,依此類推(請參見圖2c中不同的藍色陰影)。修改了第n個殼層後,我們可以測量網絡用於提取其預測的面積有多大,從而可以估算物理系統中粒子相互影響的距離。

消融實驗

消融實驗:

在左側的實驗中,除去了圍繞一個中心粒子的第一個殼之外的所有粒子。在正確的實驗中,通過增加第一和第二粒子殼之間的距離來幹擾輸入。

我們發現,當預測在不久的將來或液相中發生的情況時,對第三層殼的劇烈修改(例如,將其完全刪除,圖4,左)並沒有改變網絡對標記粒子所做的預測。另一方面,當在低溫和不久的將來進行預測時,玻璃開始鬆弛後,第5層殼的微小擾動(圖4,右)也會影響標記顆粒的預測。這些發現與實際圖像相符,其中相關長度(粒子相互影響的距離的度量)在接近玻璃化轉變時會增長。相關長度的定義和研究是物理學中相變研究的基石,並且在研究玻璃時仍然是爭論的開端。儘管無法將這種「機器學習」的相關長度直接轉換為物理上可測量的量,但它提供了令人信服的證據,表明在接近玻璃化轉變時系統中存在越來越大的空間相關性,並且我們的網絡已經學會了提取它們。

結論

我們的結果表明,圖網絡是利用隱藏在局部粒子附近的結構,可以預測玻璃態系統的長期動力學的強大工具。我們希望我們的技術可用於預測對玻璃感興趣的其他物理量,並希望它將為玻璃系統理論家帶來更多見解。圖網絡是一種通用工具,可應用於包括交通在內的許多其他由多體交互組成的物理系統,人群模擬和宇宙學。這裡使用的網絡分析方法還可以在其他領域產生更深刻的理解:圖網絡不僅可以幫助我們對一系列系統進行更好的預測,還可以指出哪些物理關聯對於建模它們很重要–在這項工作中,本地之間的相互作用如何。

相關焦點

  • 簡單圖神經網絡(GNN)的基礎知識
    在社交網絡分析等一些應用中,圖神經網絡已經得到了廣泛的應用。新加坡科技研究局(A*STAR)的研究者 Rishabh Anand 近日通過圖解的方式介紹了圖與圖神經網絡的基本概念,或許能幫助初學者更直觀地理解圖神經網絡的內涵和價值。
  • 極驗發布全國首個專注於圖神經網絡的書籍,《深入淺出圖神經網絡...
    圖神經網絡是當前 AI 領域最為火爆的研究熱點之一,學術界與工業界各大公司紛紛投入大量資源研究。它在因果推理上擁有巨大潛力,有望解決深度學習無法處理的關係推理、可解釋性等一系列問題,而這些問題被業界認為是能夠推動 AI 出現實質性進展的關鍵。
  • 一份完全解讀:是什麼使神經網絡變成圖神經網絡?
    本文將就「為什麼圖有用」、「為什麼很難在圖上定義卷積」、「是什麼使神經網絡成為了圖神經網絡」這些問題進行討論。首先,讓我們簡單回顧一下什麼是圖?圖 G 是由有向或無向邊連接的一組節點(頂點)。節點和邊通常是由專家依據知識經驗或是對問題的直覺進行設置的。
  • 一文讀懂圖神經網絡
    圖神經網絡作為神經網絡擴展,可以處理以圖結構表示的數據格式。在圖中,每個節點都由本身的特性以及其相鄰的節點和關系所定義,網絡通過遞歸地聚合和轉換相鄰節點的表示向量來計算節點的表示向量。圖神經網絡(GraphNeural Networks, GNNs),主要針對非歐幾裡得空間結構(圖結構)的數據進行處理。
  • 一文了解卷積神經網絡基礎,建議收藏
    下面我們來看一個實例來了解一下BP神經網絡。實例:利用BP神經網絡進行數字識別我們拿到一張圖片,例如上邊第一張圖所示拿到的是0,這張圖是由若干像素組成,每個像素有RGB三個通道,然後經過灰度化後變成第二張圖片
  • 圖神經網絡越深,表現就一定越好嗎?
    數十層甚至數百層神經網絡的應用,是深度學習的重要標誌之一。但現實情況卻遠非如此:比如今年被視作機器學習領域最火熱的研究方向之一——圖神經網絡,大多數都只運用了寥寥幾層網絡。一般思路裡,我們會認為圖神經網絡越深,效果就會越好。
  • 教程| 通過可視化隱藏表示,更好地理解神經網絡
    本文我想利用這些(隱藏)表示進行可視化,從而更加直觀地了解訓練過程。這種可視化可以為神經網絡的性能提供有趣的見解。我聯想到很多想法,最終從 Andrej Karpathy 的研究(t-SNE visualization of CNN codes)中獲得了理論支持。
  • 逆勢而上的技術:圖神經網絡學習來了!
    你一定不會忽略它——圖神經網絡。相比傳統神經網絡,圖神經網絡的優勢非常明顯:1、非順序排序的特徵學習:GNN 的輸出不以節點的輸入順序為轉移的。2、兩個節點之間依賴關係的學習:傳統的神經網絡中,這種依賴關係只能通過節點的特徵來體現。3、推理能力:GNN 能夠從非結構化數據(例如:場景圖片、故事片段等)中生成推理圖。
  • 圖神經網絡 Graph Neural Network (GNN)
    傳統的神經網絡比較適合用於歐式空間的數據,而圖神經網絡 GNN 可以把神經網絡用在圖結構 (Graph) 中。圖神經網絡的種類很多,包括圖卷積網絡 GCN、圖注意力網絡 GAT、圖自編碼器 GAE 等。本文介紹最早被提出的圖神經網絡 (Graph Neural Network) GNN。
  • 一圖抵千言:帶你了解最直觀的神經網絡架構可視化
    神經網絡是複雜、多維、非線性的數組運算。如何在避免過於複雜或重複的情況下呈現深度學習模型架構的重要特徵呢?又該以何種方式清晰直觀、啟發性地呈現它們呢?(好看也是加分項!)無論研究還是教學項目對此都沒有固定標準。本文我們就來了解一下可視化整個神經網絡架構和特定模塊的工具和技巧。
  • 為什麼要進行圖學習?談一談逆勢而上的圖神經網絡
    相信你一定會說出來一個:圖神經網絡。你需要了解流形學習2.0版本終於來了!圖嵌入表示:深度遊走(Deepwalk)圖系列|從圖(Graph)到圖卷積: 漫談圖神經網絡模型(I)圖系列|從圖(Graph)到圖卷積: 漫談圖神經網絡模模型(II)圖系列|從圖(Graph)到圖卷積: 漫談圖神經網絡模模型(III)圖卷積神經網絡Graph Convolutional Network(GCN):從問題到理論分析
  • 要想了解卷積神經網絡,首先需要了解三種基本架構
    卷積網絡是研究關於圖像(紋理,圖像尺度等)的抽象層面的一種網絡,跟傳統網絡不同的是,它不僅可以根據一個固定尺寸圖像生成物體識別數據,還可以對圖像其他部分進行其他操作。卷積可以有多個,它的作用是「放大」和「增強」圖像的抽象空間。那麼卷積可以用於哪些場景呢?
  • 如何通過人工神經網絡實現圖像識別?
    人工神經網絡(Artificial Neural Networks)(簡稱ANN)系統從20 世紀40 年代末誕生至今僅短短半個多世紀,但由於他具有信息的分布存儲這裡討論的是將要識別的目標物體用成像頭(紅外或可見光等)攝入後形成的圖像信號序列送入計算機,用神經網絡識別圖像的問題。一、BP 神經網絡BP 網絡是採用Widrow-Hoff 學習算法和非線性可微轉移函數的多層網絡。
  • 【乾貨】圖神經網絡的十大學習資源分享
    【乾貨】圖神經網絡的十大學習資源分享英語原文:Top 10 Learning Resources for Graph Neural Networks翻譯:雷鋒字幕組(聽風1996)圖神經網絡(GNNs)是深度學習的一個相對較新的領域,從最近開始越來越流行
  • 圖神經網絡快速爆發,最新進展都在這裡了
    近年來,圖神經網絡(GNNs)發展迅速,最近的會議上發表了大量相關的研究論文。本文作者正在整理一個GNN的簡短介紹和最新研究報告的摘要。希望這對任何準備進入該領域或試圖趕上最新技術進展的人有所幫助。什麼是圖神經網絡?圖是一種包含節點(頂點)的數據類型,這些節點(頂點)通過邊相互連接,邊可以是有向的,也可以是無向的。
  • 對人工神經網絡「開刀」,利用神經科學消融法檢測人工神經網絡
    在 Mayes Meisen 和他同事的研究中,研究人員希望以破壞神經網絡的特定區域的方法,觀察該區域如何影響性能。最終,通過這些觀測結果對人工神經網絡和生物神經網絡的組織形式進行比較。「在人工神經網絡上應用消融的方法十分簡單的,」Meyes 和 Meisen 解釋道。
  • AI的人工神經網絡
    人工神經網絡是模擬人和動物的神經網絡的某種結構和功能的模擬,所以要了解神經網絡的工作原理,所以我們首先要了解生物神經元。其結構如下圖所示:   從上圖可看出生物神經元它包括,細胞體:由細胞核、細胞質與細胞膜組成; 軸突: 是從細胞體向外伸出的細長部分
  • 圖神經網絡的表達能力,究竟有多強大?
    1圖神經網絡和 WL 圖同構測試之間的關係眾所周知,傳統的前饋神經網絡(多層感知機)是一種通用函數近似器:它們能夠以任意的準確率逼近任意的平滑函數。對於近期興起的圖神經網絡來說,其表徵性質還不太為人所知。在實驗中,我們經常可以看到圖神經網絡在某些數據集上性能優異,但同時又在另一些數據集上表現令人失望。
  • 通過函數圖像,了解26種神經網絡激活函數都長啥樣.
    ,為大家了解激活函數提供了很好的資源。在神經網絡中,激活函數決定來自給定輸入集的節點的輸出,其中非線性激活函數允許網絡複製複雜的非線性行為。正如絕大多數神經網絡藉助某種形式的梯度下降進行優化,激活函數需要是可微分(或者至少是幾乎完全可微分的)。此外,複雜的激活函數也許產生一些梯度消失或爆炸的問題。因此,神經網絡傾向於部署若干個特定的激活函數(identity、sigmoid、ReLU 及其變體)。
  • 北大、微軟亞洲研究院:高效的大規模圖神經網絡計算
    新智元報導 來源:arXiv編輯:肖琴【新智元導讀】第一個支持圖神經網絡的並行處理框架出現了!北京大學、微軟亞洲研究院的研究人員近日發表論文,提出NGra,這是第一個支持大規模GNN的系統。GNN(圖神經網絡)代表了一種新興的計算模型,這自然地產生了對在大型graph上應用神經網絡模型的需求。但是,由於GNN固有的複雜性,這些模型超出了現有深度學習框架的設計範圍。此外,這些模型不容易在並行硬體(如GPU)上有效地加速。