文獻速遞:神經網絡算法&計算化學中從頭算鎵的成核與相圖

2021-02-15 模擬計算聯盟

作者介紹:

Michele Parrinello

米歇爾-帕裡內洛(Michele Parrinello)是非常出名的分子動力學研究的義大利物理學家。帕裡內羅(Parrinello)和羅伯託·卡爾(Roberto Car)憑藉對1985年開創性論文「分子動力學和密度泛函理論的統一方法」首次提出的Car-Parrinello方法的不斷發展,於2009年榮獲狄拉克獎章和西德尼·芬巴赫獎。

標題:Ab initio phase diagram and nucleation of gallium1. 元素鎵具有一些有趣的特性,如低熔點、密度異常和共價與金屬共存的電子結構。為了模擬這個複雜的系統,研究者通過對多熱-多壓模擬中產生的構型進行密度泛函理論計算,訓練神經網絡來構造了從頭算質量相互作用勢。2. 在這裡,研究者分析表明,液體鎵,α-鎵,β-鎵,鎵-II之間的相對平衡是很好的描述,所得相圖與實驗結果一致。3. 此外,研究者還描述了液態鎵的局域結構及其在α-鎵和β-鎵中的成核,研究表明,亞穩態β-Ga的生成比熱穩態α-Ga的生成更有利。元素鎵是一種獨特的金屬,具有許多迷人和不尋常的特性。在它的不同相中,發現了其具有各種重要的技術應用。不像大多數金屬,包括那些在元素周期表同一列的金屬,它在相當複雜的結構中結晶,如圖1所示。它在環境條件下的穩定固相,稱為α-Ga,是正交的,在原始單胞中有四個原子。每個原子與七個相鄰原子相互協調,形成一個各向異性極強的原子環境(圖1a)。最鄰近的兩個原子之間的成鍵被稱為共價鍵,因而α-Ga被認為是共價鍵和金屬鍵的混合物。在融化時,像水一樣,它表現出密度異常,液體膨脹高達3.1%。儘管經過了幾十年的實驗研究,液體鎵的結構仍未被完全理解。此外,微米級或亞微米級的液態鎵可以過冷至150k而不凝固。在這種情況下,晶化過程中不會產生穩定的晶相,而會產生大量的β-Ga結構。實驗還表明,在3-15 nm範圍內的Ga納米顆粒可以過冷,甚至可以降至90 K,沒有凍結轉變的跡象。β-Ga的結構是單斜的,包含了平行於(021)平面的原子的正方形排列,如圖1b所示。與α-Ga不同,在距離為2.78 Å的情況下,β-Ga中的每個原子有8個最近鄰。此外,Ga相圖顯示了各種不同的複雜穩定和亞穩態多晶型,例如,δ-Ga,γ-Ga和Ga-II相。其中Ga-II在高壓下具有熱力學穩定性,可以描述為每個原子具有8倍配位的互穿體中心立方晶格(圖1c)。液體和固體Ga結構的複雜性使得分子模擬的成核和相對平衡的研究具有很大的挑戰性。

為了進行模擬,需要清除兩個障礙。一個是成核發生的長時尺度,而另一個是對導致遺傳算法複雜行為的微妙相互作用的精確描述。幸運的是,這兩個領域都取得了很大進展。一方面,高效的強化取樣方法允許在各種體系中研究結晶。為了準確地描述遺傳算法的相互作用,需要從頭計算描述,但運行第一性原理分子動力學(MD)是較為昂貴的。這個難題的解決方法是由Behler和Parrinello首先提出,即在大量適當選擇的構型集合上訓練一個神經網絡(NN)。這意味著要精確地計算總能量和力,通常在密度泛函理論(DFT)水平上,並優化NN的參數,以便最好地重現這些數據。

近日,來自西北工業大學Haiyang Niu、蘇黎世聯邦理工學院Michele Parrinello等研究者選擇使用最近開發的MD的深度勢 (DeePMD)方法,結果表明,所得到的神經網絡力場能夠較好地描述合金的結構和相關性質。重要的是,計算了鎵在較寬的溫度和壓力範圍內的相圖,與實驗結果吻合較好。通過比較α-Ga和β-Ga的成核性能,其次發現,亞穩態β-Ga的形成在動力學上優於優於174 K以上的熱力學穩定α-Ga。

在神經網絡的訓練中,對構型的仔細選擇是神經網絡潛能訓練過程成功的關鍵。此文的重點是研究Ga相圖及其成核過程,因此需要得到液體和固體的所有特徵結構,最重要的是兩相共存的成核區域的特徵結構。在這裡,研究者著手研究廣義Ga相圖時,其歸納了Bonati和Parrinello的方法,使用多熱-多壓系統的模擬來訓練神經網絡,從而為神經網絡提供所有相關構型。神經網絡訓練過程如圖2的四個步驟所示。這四個步驟包括多熱-多氣壓模擬,收集一套相關構型的訓練集,在DFT水平上計算能量和力以及訓練神經網絡勢。該程序是基於三種方法的結合,即多熱-多壓模擬,選擇有效的集體變量(CVs)和使用DeePMD方法。通過迭代這個過程,研究者能夠獲得DFT的優質勢。

值得注意的是,使用多熱-多壓模擬是研究者方法的一個關鍵特徵,它允許研究者建立一個可靠的神經網絡勢,進而確定遺傳算法相圖。在這種模擬中,研究者探索了大量的排列方式,從典型的液體Ga到通過中間態的α-Ga。正如圖3中報告的,與標準等溫-等壓模擬相比,這些構型涵蓋了更大範圍的能量和體積。將神經網絡暴露於各種物理相關構型中,是訓練一個在全溫度壓力區域有效的神經網絡的關鍵。

 如圖4所示,NN力場得到的液體鎵的徑向分布函數g(r)和靜態結構因子S(q),與實驗結果一致。將液態Ga的g(r)積分到第一個最小值,得到的平均配位數為11.5,這與結構緻密的液態金屬相似,說明其原子環境的各向同性程度高於α-Ga。這些特徵可能會導緻密度異常,在凍結成α-Ga時,密度會膨脹~3.1%左右。此外,在S(q)的高-q側觀察到一個肩,與實驗觀察結果非常一致。研究者還比較了液體Ga與α-,β-以及Ga-II的S(q)。結果表明,如圖4b所示,β-Ga與液態Ga的S(q)的峰位置基本一致,表明β-Ga與液態Ga之間存在潛在的結構相似性。另一方面,可以觀察到在α-鎵與液相Ga之間的顯著差異,與之前的工作報告的結果一致。雖然Ga-II的S(q)與液體鎵的S(q)也有一定的相似性,但在這種情況下Ga-II的作用並不重要,因為在環境溫度和壓力下Ga-II是高度不穩定的。研究者還計算了不同溫度和壓力下液體鎵的g(r)和S(q)。結果表明,隨著溫度的降低和壓力的增大,液態鎵的結構變得更加明顯。

 

在這裡,研究者目標是計算在240-340 K和0-2.6 GPa範圍內的相圖。為了實現這個目標,研究者進行了三次多熱-多壓模擬。三次多熱-多壓模擬得到的鎵相圖如圖5所示,與實驗數據一致。三相交叉點液-α-II位於280.9 K和1.58 GPa,與實驗的276.2 K和1.19 GPa相當。研究者在表1中總結了這裡所研究的固相的熔點溫度和晶格參數,熔融溫度和晶格參數與實驗結果基本一致。

研究者為了研究固相的成核行為,使用神經網絡勢進行了多次元動態模擬。圖6顯示了來自於α-Ga和β-Ga均勻形核過程的快照。在這兩種情況下都可以觀察到類似的特徵。最初,晶體胚胎在液相中隨機形成。最終,一個團簇佔據了主導地位,並穩定地成長為一個大晶體。有趣的是,在y-z平面上,α-鎵的晶體團看起來是相對球形的,而β-鎵的晶體團是有稜角的平行四邊形。從三維角度來看,兩種情況下的原子核都接近於球體,如圖6所示。

 

 另一個潛在的問題是成核過程中的α-鎵中的Ga2二聚體特徵是如何演變的。為了解決這個問題,研究者計算了自由能表面(FES)作為一個函數,在280 K()和1 bar下,系統中有144個Ga原子的固相原子fs和Ga2二聚體fd的分數。如圖7a所示,研究者的CVs很好地描述了在α-Ga和液體Ga之間的轉變。在固相中,fs和fd都等於1,其中液相中fs和fd分別約等於0和0.25。兩個盆地大致呈線性連接,表明Ga2二聚體與類固相原子的形成有很強的相關性。在液相中,Ga2二聚體的取向是隨機的,沿成核方向的二聚體有利於形成固相原子。相比之下,在具有144個原子的體系中,β-Ga在240 K()和1 bar條件下成核,FES作為類固相原子的比例fs和Ga2二聚體fd的函數如圖7b所示。由於熱波動,在β-Ga中也存在少量二聚體。由於液體Ga與β-Ga的結構相似,在β-Ga成核過程中fd沒有明顯變化。這些模擬闡明了Ga2二聚體在α-Ga成核過程中的演變。然而,由於嚴重的有限尺寸效應,不能定量地比較α-Ga和β-Ga的成核能壘。

 

在CNT成立的假設下,播種技術可用於獲得臨界過冷核尺寸和成核能勢壘。通常,將球狀團簇插入本體液體中來創建初始模擬系統。這裡,我們使用從meta動力學模擬中提取的構型(圖6)作為種子模擬的起點,改進了標準程序。然而,在目標溫度下,從α-Ga和β-Ga的成核中提取的晶型在~0.2 ns左右。研究者為每個階段選擇了5個初始構型,然後在不同的溫度下執行MD運行,並監視集群大小,以確定每個集群的關鍵溫度。在圖8中,研究者報告了α-Ga和β-Ga在不同溫度下的臨界核尺寸Nc和成核勢壘。首先可以看出,在相同溫度下,β-Ga的臨界尺寸要比α-Ga的臨界尺寸大得多。此外,在173 ± 3 K溫度下,兩晶相的成核勢壘曲線相交。在此溫度以上,β-Ga的成核能勢壘低於α-Ga的成核能勢壘,說明過冷液Ga有利於β-Ga成核,而不利於α-Ga成核。該結果闡述了實驗結果,液體Ga的結晶在微米或亞微米尺寸下不會形成α-Ga,而主要是β-Ga。此外,研究者還比較這兩種情況下的界面自由能γ,結果表明,β-Ga的界面能比α-Ga的界面能小約3倍。研究者還估算了在170 K和180 K時,α-Ga和β-Ga的成核速率J分別為~ 2.4×10-23和5.3×10-31 m-3s-1。換句話說,平均要等~4.8×1017天和~2.2×1025天,才能在170 K和180 K的1 m3液體Ga中看到單個核的形成。這表明,在這些條件下不會發生均相形核,而非均相形核是正常的結晶機制,這與實驗結果一致。該結果同時也證明了為什麼液體Ga可以在成核開始之前被實驗過冷到極低的溫度。

綜上所述,研究者結合了眾多先進的計算技術,為具有許多複雜的鍵合和結構性質的鎵構建一個神經網絡力場。結果表明,所得到的神經網絡力場不僅能很好地描述液態鎵的結構,而且能很好地反映所研究的固相(如:α-Ga、β-Ga、Ga-II)的性質。這些性質包括熔化溫度、點陣參數和熔化焓。此外,還得到了鎵在較寬的溫度和壓力範圍內的相圖,與實驗結果很好地吻合。該項研究為計算相圖和研究複雜材料的形核提供了一種方法,以合理的成本進行從頭計算。Niu, H., Bonati, L., Piaggi, P.M. et al. Ab initio phase diagram and nucleation of gallium. Nat Commun 11, 2654 (2020). https://doi.org/10.1038/s41467-020-16372-9DOI:https://doi.org/10.1038/s41467-020-16372-9原文連結:https://www.nature.com/articles/s41467-020-16372-9

做計算,學計算,請認準唯理計算                                                         

——你身邊更值得信賴的計算團隊

唯理計算可以提供計算服務、培訓課程、超算租賃等,有需要的小夥伴,可以聯繫我們:

做計算,學計算,就找唯理計算,唯理計算和您在一起!

小福利:

針對模擬計算我們有專門的溝通群,想進群的小夥伴加微信

17812574221

備註:模擬計算進群

群裡可以和老師一起探討問題,老師也會幫助解答問題的哦~

  你「在看」我嗎

相關焦點

  • Nature Communications報導西北工業大學牛海洋教授在金屬鎵的凝固...
    與冰類似,α-Ga的密度低於液態鎵的密度。液態鎵,尤其是在體積受限條件下,具有極大的過冷度,例如微米尺度的液態鎵可過冷至150K的低溫。在此種場景下,液態鎵凝固結晶得到的是以亞穩相β-Ga為主的混合相而不是α-Ga。如何從形核機理上破解金屬鎵的深過冷特性以及其凝固過程中α相和β相的競爭之謎已成為困擾該領域內研究人員的科學難題。
  • 神經網絡分析算法
    他們相互聯繫形成神經網絡,通過感官器官和神經來接受來自身體外的各種信息(在神經網絡算法中我們稱:訓練)傳遞中樞神經,然後經過對信息的分析和綜合,再通過運動神經發出控制信息(比如我在博客園敲文字),依次來實現機體與外部環境的聯繫。神經元這玩意跟其它細胞一樣,包括:細胞核、細胞質和細胞核,但是它還有比較特殊的,比如有許多突起,就跟上面的那個圖片一樣,分為:細胞體、軸突和樹突三分部。
  • 用神經網絡求解薛丁格方程,DeepMind開啟量子化學新道路
    谷歌的 DeepMind 已經訓練出了一個能求解薛丁格方程的神經網絡。為什麼要計算薛丁格方程呢?這是因為求解薛丁格方程可以為化學反應提供線索。化學反應的結果基本上與電子以及它們環繞原子和分子的方式有關。而控制事物反應的能量以及電子在分子中的軌道的差異決定了化學物質的形狀,也由此決定了其性質。計算這一能量的方式就是求解薛丁格方程。
  • 神經網絡計算效率如何來提高
    閃億半導體的該項專利,在計算神經網絡時,呈陣列排布的多個存儲單元中,任意N條第一信號線和任意M條第二信號線限定的區域均可以作為一個存儲陣列,從而大大增加存算一體化電路中的存儲陣列數量以及各存儲陣列大小的靈活性,進而增加所能計算的神經網絡的神經元層數目範圍以及每個神經元層內的節點數目範圍。
  • BP神經網絡算法與實踐
    神經網絡有很多種:前向傳輸網絡、反向傳輸網絡、遞歸神經網絡、卷積神經網絡等。本文介紹基本的反向傳輸神經網絡(Backpropagation 簡稱BP),主要講述算法的基本流程和自己在訓練BP神經網絡的一些經驗。
  • 業界| 分子性質預測新突破:谷歌新型神經網絡助力化學研究
    機器學習(ML)近來已經在化學領域實現了很多激動人心的應用,尤其是在化學搜索問題上——從藥物發現和電池設計到尋找更好的 OLED 和催化劑。歷史上,化學家曾經在這些化學搜索中使用過薛丁格方程的數值近似方法,比如密度泛函理論(DFT)。但是,這些近似方法的計算成本限制了搜索的規模。
  • 「人工神經網絡」人工神經網絡之BP算法
    人工神經網絡(Artificial Neural Network,ANN)是在受到了生物學的啟發後創建的,在某種程度上它是對生物大腦的一種模擬。人們仿照生物神經網絡的結構,使用簡單運算單元模擬神經元,並將大量運算單元按某種形式密集連接,便構成了人工神經網絡。結構如圖:人工神經網絡(ANN)模型帶有權重值(w1,w2,...
  • 訓練神經網絡的五大算法
    訓練的算法有很多,它們的特點和性能各不相同。➤問題的抽象人們把神經網絡的學習過程轉化為求損失函數f的最小值問題。一般來說,損失函數包括誤差項和正則項兩部分。誤差項衡量神經網絡模型在訓練數據集上的擬合程度,而正則項則是控制模型的複雜程度,防止出現過擬合現象。損失函數的函數值由模型的參數(權重值和偏置值)所決定。
  • 機器學習算法匯總:人工神經網絡、深度學習及其它
    基於核的算法中最著名的莫過於支持向量機(SVM)了。 基於核的算法把輸入數據映射到一個高階的向量空間, 在這些高階向量空間裡, 有些分類或者回歸問題能夠更容易的解決。常見算法包括 Apriori算法和Eclat算法等。 人工神經網絡
  • 【神經網絡】神經網絡簡介
    神經網絡是機器學習中的一種模型,是一種模仿動物神經網絡行為特徵,進行分布式並行信息處理的算法數學模型。
  • 算法的算法:人工神經網絡
    在上周的人工神經網絡課程中介紹了機器學習中的支持向量機(SVM:Support Vector Machine)與前饋網絡RBF的之間的聯繫,而對於由傳遞函數為線性函數組成的單層網絡的代表自適應線性單元(ADLINE:Adaptive  Linear Element)更是和傳統信號處理中的自適應濾波器相類似。
  • 什麼是神經網絡算法?
    人工智慧的底層模型是"神經網絡"(neural network)。許多複雜的應用(比如模式識別、自動控制)和高級模型(比如深度學習)都基於它。學習人工智慧,一定是從它開始什麼是神經網絡呢?網上似乎缺乏通俗的解釋。
  • 圖神經網絡的表達能力與Weisfeiler-Lehman測試
    聚合和更新操作的選擇至關重要:只有多集內射函數才能使其等同於 Weisfeiler-Lehman 算法。一些文獻中常用的聚合器選擇,例如,最大值或均值,實際上嚴格來說沒有 Weisfeiler-Lehman 強大,並且無法區分非常簡單的圖結構:
  • 當計算化學遇上諾獎—計算化學革新者John A. Pople
    在他50多年的化學生涯中,波普爾實際上至少在四種不同的學術領域有非凡貢獻:• 統計力學(Statistical Mechanics)• 半經驗理論(Semi-Empirical Theory)• 從頭算電子結構理論(Ab Initio Electronic Structure Theory)儘管波普爾在其博士就讀時就寫了一些關於計算電子結構理論的早期論文,但他前十年研究的主要興趣是統計力學
  • 神經網絡與深度學習
    隱藏層使得感知機能夠發展為擬合萬物的神經網絡模型,而反向傳播算法則是整個神經網絡訓練的核心要義。要學習深度學習,恐怕不得不先溫習一下機器學習,搞清楚二者之間的關係。簡單來說,機器學習就是從歷史數據中探索和訓練出數據的普遍規律,將其歸納為相應的數學模型,並對未知的數據進行預測的過程。
  • 算法之「算法」:所有機器學習算法都可以表示為神經網絡
    但是眾所周知,神經網絡是算法的算法及機器學習的巔峰。我們可以說,神經網絡是對機器學習的普遍概括,而不是僅僅一次嘗試。與其說神經網絡是簡單的算法,不如說是框架和概念,這是顯而易見的,因為在構建神經網絡時有很大的自由度——比如對於隱藏層&節點個數、激活函數、優化器、損失函數、網絡類型(卷積神經網絡、循環神經網絡等)以及特殊層(批歸一化、隨機失活等)。
  • 神經網絡的BP算法學習
    這就是BP算法的核心公式。在實際使用中,有前向和後向兩個流程,以圖-1為例:在前向流程中,依次計算:在後向計算過程中,計算過程如下:在TensorFlow中,每個tensor就表示了一個函數節點,tensor之間的運算,例如mat、add這些都會生成新的tensor,這種關係最終都在記在graph中,在梯度求導的時候,根據圖中節點的順序,從後至前計算梯度,只要確保:回傳某節點的梯度時,該節點的後續依賴節點已經回傳完畢就行了。需要注意的幾個地方:1)梯度的計算可能引起歧義,如下:
  • 前饋神經網絡——深度學習之神經網絡核心原理與算法
    因上幾次讀者反映,公式代碼有亂碼和不規整的問題,小編有改善喲,這篇文章開始親們會看到效果的喲~Feedforward Neural Network網絡結構(一般分兩種)BP網絡是所有的神經網絡中結構最為簡單的一種網絡。一般我們習慣把網絡畫成左邊輸入右邊輸出層的結構。
  • 衝量網絡|神經網絡
    上一期我們介紹了機器學習的相關知識,但其可以說是一種比較寬泛的定義,在實際的實現過程中,人們發現面對分布式技術和輸出層較多的深度學習場景,缺少一種比較有效的算法解決方案,在這樣的需求背景下,神經網絡技術便應運而生,其模擬人腦的神經網絡以期能夠實現類人類智能的機器學習技術。
  • 深度學習:神經網絡算法的昨天、今天和明天
    這兩種神經元到後來演化成了重要的卷積層(Convolution Layer)和提取層(Pooling Layer)。但是這個網絡的神經元都是由人工設計而成,其神經元也不會根據結果進行自動調整,因此也就不具有學習能力,只能限制在識別少量簡單數字的初級階段。圖1:神經認知機Neocognitron的工作原理圖(摘自原文Fukushima,Kunihiko.