「神經常微分方程」提出者之一:如何利用深度微分方程模型處理連續...

2021-01-10 澎湃新聞

2020 WAIC·開發者日將於7月10日-11日線上舉辦。多倫多大學助理教授、向量學院聯合創始人、NeruIPS 2018 最佳論文獎得主,將帶著對微分方程和連續時間的最新思考出現在 WAIC 開發者日。

提到 David Duvenaud 你或許有些陌生,但最近大熱的「神經常微分方程」想必你一定聽說過。

《Neural Ordinary Differential Equations》獲得 ,David Duvenaud 正是該論文的通訊作者,也是論文一作陳天琦的導師。

David Duvenaud 是多倫多大學向量學院的創始人之一,能源預測和貿易公司 Invenia 的聯合創始人,目前在多倫多大學擔任計算機科學助理教授。

他在劍橋大學獲得博士學位,後在哈佛大學 Intelligent Probabilistic Systems 實驗室完成博後工作。

目前,他在多倫多大學教授概率學習和推理、機器學習統計方法、可微分推斷和生成模型等課程,指導的學生有陳天琦、Jesse Bettencourt、Dami Choi、Will Grathwohl、Eric Langlois、Jonathan Lorraine、Jacob Kelly 和 Winnie Xu。

David Duvenaud 與微分方程的羈絆

David Duvenaud 的主要研究方向是連續時間模型、隱變量模型和深度學習。近年來,他的工作和微分方程產生了緊密聯繫。

深度學習能夠與微分方程相結合?是的。在 NeruIPS 2018 獲獎論文中,陳天琦、David Duvenaud 等人將二者相結合,進行架構創新,提出一類新型深度神經網絡「神經常微分方程」(ODEnet)。它不拘於對已有架構的修修補補,而是完全從另外一個角度考慮如何以連續的方式藉助神經網絡對數據建模。

藉助微分方程,ODEnet 將神經網絡離散的層級連續化了,因此反向傳播也不再需要一點一點傳、一層一層更新參數。

論文參與者認為,既然殘差連接就是常微分方程(ODE)的離散化,那麼常規神經網絡的前向傳播過程豈不就是微分方程給定初值解末值的過程?如果用業界成熟的微分方程求解器(ODE Solver)解某個 ODE,這不就能代替前傳和反傳麼?

於是他們在 ODENet 中使用神經網絡參數化隱藏狀態的導數,而不是如往常那樣直接參數化隱藏狀態。這裡參數化隱藏狀態的導數就類似構建了連續性的層級與參數,而不再是離散的層級。因此參數也是一個連續的空間,我們不需要再分層傳播梯度與更新參數。

這篇論文證明了常微分方程可以解決複雜問題,算是對之前相關研究的一次總結。

該論文獲獎後獲得了大量關注,而後來的一件事又把它推到了風頭浪尖。

獲獎一年後,David Duvenaud 在 NeruIPS 2019 大會上發表演講,回顧了 NeruIPS 2018 獲獎研究 ODENet。

在演講中,他闡明了 ODENet 論文的幾點問題,如論文最終選擇「Neural Ordinary Differential Equations」作為標題是因為它短小精悍,更容易引發關注;做這項研究的動機是為了討好 Dougal Maclaurin、Matthew Johnson 這些前輩;在對比不同方法的參數效能時,該研究沒有對基線方法進行微調;該研究認為使用 ODE 求解器能夠根據給定的誤差容忍度選擇適當的步長逼近真實解,但 ODE 領域研究者認為,ODE 求解器並不總是有效……

這段演講再次引發了大量討論,很多人表示理解,並認為 David Duvenaud 非常坦誠。

不管是否存在爭論,David Duvenaud 對微分方程的研究沒有停下。

發表 ODENet 後不久,David Duvenaud 等人再次利用常微分方程提出新架構——。這次他們利用 ResNet 作為常微分方程的 Euler 離散化,並證明通過簡單地改變標準 ResNet 的歸一化機制就可以構建可逆 ResNet。

2019 年 12 月,David Duvenaud 與陳天琦合作發表論文《Neural Networks with Cheap Differential Operators》,探討了如何使用廉價的可微算子處理神經網絡架構的梯度計算。

今年初,David Duvenaud 等人發布論文《Scalable Gradients for Stochastic Differential Equations》,將計算常微分方程解的梯度的 adjoint sensitivity 方法應用於隨機微分方程。

微分方程與連續時間動態

從 NeruIPS 2018 最佳論文「神經常微分方程」到基於常微分方程構建的可逆殘差網絡,再到今年年初的《Scalable Gradients for Stochastic Differential Equations》,David Duvenaud 與常微分方程的羈絆不可謂不深。

在不久後舉行的 2020 年世界人工智慧大會雲端峰會開發者日專場,David Duvenaud 將分享他對連續時間模型的思考,此次演講同樣涉及微分方程。

離散時間和連續時間差別巨大。許多現實數據,如病歷、客戶交互或金融交易,是以不規則時間間隔記錄的。但是,大部分深度學習時序模型(如循環神經網絡)要求數據以規則的時間間隔記錄,如每小時記錄一次。

那麼如何處理連續時間動態呢?

David Duvenaud 將在此次演講中介紹,利用深度微分方程模型來處理連續時間動態方面的近期進展,這類模型可以擬合新的基於時序的豐富參數化分布。此外,該演講還將討論這類模型的優缺點,以及它們在病歷和運動捕捉數據上的效果。

關於2020 WAIC·開發者日

2020 WAIC·開發者日將於 7月10日-11日 在線上舉辦,設置主論壇、分論壇、高峰對話、開發者日百度公開課、開源開放Demo Day、黑客馬拉松等多個環節。

目前,我們已公布了主論壇、百度公開課、開源開放Demo Day的日程介紹,更多精彩日程揭秘,敬請關注後續報導。

主論壇:公開課:3小時極致學習 AI 開發,WAIC 開發者日有一堂必上公開課

Demo Day:2020 WAIC· 開發者日全程線上舉辦,直播連結將於 7 月初公布。但在主論壇期間,我們計劃在上海組織一場小型看直播、聊人生的現場活動,時間 7月11日13:00—18:15,坐標上海世博中心,只限100人。同時我們準備了一些書籍與禮品在現場贈送,具體活動信息詳見。

如何報名?

添加機器之心小助手微信,備註「現場」,小助手會給你發邀請碼和報名連結,以及邀請你進現場面基群。

不來現場還想進群交流?添加小助手後備註「開發者日」就可以了。

原標題:《「神經常微分方程」提出者之一David Duvenaud:如何利用深度微分方程模型處理連續時間動態》

閱讀原文

相關焦點

  • 一文解構神經常微分方程
    今天,本文將帶你回顧2018年度神經信息處理系統大會(NIPS)中的最佳論文獎:《神經常微分方程》(Neural ODEs)Neural Ordinary Differential Equations。
  • 圖神經常微分方程,如何讓 GNN 在連續深度域上大顯身手?
    一、深度學習中的常微分方程一種類型不同但重要性相等的歸納偏差與收集到數據所使用系統的類別相關。儘管從傳統上看,深度學習一直由離散模型主導,但在最近的研究提出了一種將神經網絡視為具有連續層的模型[6]的處理方法。這一觀點將前向傳播過程,重定義為常微分方程(ODE)中初值求解的問題。
  • 硬核NeruIPS 2018最佳論文,一個神經了的常微分方程
    在最近結束的 NeruIPS 2018 中,來自多倫多大學的陳天琦等研究者成為最佳論文的獲得者。他們提出了一種名為神經常微分方程的模型,這是新一類的深度神經網絡。神經常微分方程不拘於對已有架構的修修補補,它完全從另外一個角度考慮如何以連續的方式藉助神經網絡對數據建模。
  • 天生一對,硬核微分方程與深度學習的「聯姻」之路
    微分方程真的能結合深度神經網絡?真的能用來理解深度神經網絡、推導神經網絡架構、構建深度生成模型?我們將從鄂維南、董彬和陳天琦等研究者的工作中,窺探微分方程與深度學習聯袂前行的路徑。因此如果能找到了微分方程與深度網絡之間的關係,那麼兩個領域之間的研究成果就能互相借鑑,也就能找到更高效的深度模型。此外,深度學習的模型設計缺少系統指導,大多數深度學習模型都缺少可解釋性,這也限制了它的應用。如果加上了微分方程,那麼網絡架構就是數值微分方程,網絡訓練就是最優控制,神經網絡的設計也就能有理論指導了。
  • 偏微分方程(組)的數值解法介紹
    上篇文章——鋰離子電池模型介紹一、偏微分方程(組)的解法介紹引導
  • 常微分方程中的重要方程:黎卡提方程(一階二次非線性微分方程)
    前面我們了解了什麼是一階線性微分方程,可分離變量微分方程,以及齊次微分方程,本篇講升上一個高度,一階微分方程中的二次微分方程義大利數學家在17世紀提出了著名的「黎卡提方程」,這個方程看上去挺簡單的,但分析起來相當複雜
  • 系統的數學模型―微分方程與傳輸算子
    的聯立微分積分方程。為了得到只含有一個變量的微分方程,須引用微分算子當畫出了算子電路模型後,即可很容易地根據圖2-1(b)算子電路模型列寫出式(2-1)。上式即為待求變量為i1(t)的三階常係數線性非齊次常微分方程。方程等號左端為響應i1(t)及其各階導數的線性組合,等號右端為激勵f(t)及其各階導數的線性組合。
  • 微分方程篇:為你構建微分方程框架
    以下是小編自己構建的微分方程這一章的知識網絡,帶*的表示選修(即考的概率不大)。函數是客觀事物的內部聯繫在數量方面的反映,利用函數關係又可以對事物的規律性進行研究。因此如何尋找函數關係,在實踐中具有重要意義。在許多問題中由於條件受限,有時只能找到要找的函數及其導數的關係式,這樣的關係式稱為微分方程。
  • 最簡單的常微分方程:變量分離微分方程
    常微分方程是微積分學方程中常見的,應用非常廣泛的方程,下面就來討論常微分方程中最簡單的變量分離微分方程。設一階微分方程式:其中f(x,y)是給定的函數,我們要做的工作是求微分方程的解y=y(x),可是一般不能用初等方法來解出這個微分方程,但是當微分方程的右端f(x,y)取某幾種特殊的類型時,就可用初等積分法求解。本篇講一個重要的特殊情形此時開篇中的微分方程就變成了這樣的方程稱之為變量分離的方程。
  • 描述物質運動變化的數學學科:常微分方程、偏微分方程
    常微分方程   如果微分方程中出現的未知函數只含一個自變量,那麼該類微分方程就是常微分方程。常微分方程的通解構成一個函數族,主要研究方程或方程組的分類及解法、解的存在性和唯一性、奇解、定性理論等等內容。
  • 偏微分方程的數值解之偏微分方程的定解問題
    這些規律的定量表述一般地呈現為關於含有未知函數及其導數的方程。我們將只含有未知多元函數及其偏導數的方程,稱之為偏微分方程。方程中出現的未知函數偏導數的最高階數稱為偏微分方程的階。如果方程中對於未知函數和它的所有偏導數都是線性的,這樣的方程稱為線性偏微分方程,否則稱它為非線性偏微分方程。初始條件和邊界條件稱為定解條件,未附加定解條件的偏微分方程稱為泛定方程。
  • 最新研究:新的深度學習技術破解偏微分方程的數學難題
    通過解此偏微分方程,可以得知任何時間點的流體運動,並模擬將如何繼續運動或之前是如何運動的。但這些計算非常複雜且計算量很大,所以常常依賴超級計算機來進行數學運算。這就是人工智慧領域可以發揮作用的地方。通過使用深度學習來加快解決的速度,將對科學探索和工程應用產生很大的好處。
  • 微分方程重點一:常係數齊次線性微分方程
    微分方程前面的都是一些基礎,如果是一些和其他題型結合在一起的題目的話,可能會考前面的微分方程內容,比如說求知道函數的全微分,讓求原函數這類的。但是如果微分方程考大題的話,就是考二階常係數非齊次線性微分方程了。之前講的微分方程解的結構是基礎,主要是為了說明做題時我們需要求什麼。
  • 計算機視覺與模式識別論文摘要:神經常規微分方程、推理視覺問答
    神經常規微分方程論文摘要:介紹了一種新的深度神經網絡模型。我們使用神經網絡參數化隱藏狀態的導數,而不是一個具體指定的離散隱藏層的序列。運用黑盒微分方程求解器(blackbox differential equation solver)來計算網絡的輸出。這些連續深度模型具有恆定不變的儲存成本,可以根據輸入調整其評估策略,並且可以明顯地以精度換取速度(這裡只指數值的精度)。我們證明了非連續深度(continuous-depth)殘差網絡和連續時間潛在變量模型的性質。
  • 微分小方程,世間大道理
    在學習微分方程這一章時,我們了解了很多類型的微分方程,有可分離變量的,有齊次的,有線性的,這些微分方程可不簡單,它們可都是我們這個宇宙中某些事物的運行規律,了解這些方程的背景可以提高我們對高數的興趣。 我們來看一些非常簡單的微分方程,其實越簡單的東西,包容性更強,更能反映普遍規律。
  • 《歐拉方程及微分方程建模》思路與方法
    【注】歐拉方程其實就是一種線性微分方程的結構,只不過不具有直接的顯性結果,需要換元變換得到。 三、微分方程模型求解實際問題的基本步驟(1) 確定模型類型:注意到實際問題中與數學中的導數相關的常用詞語。
  • 常微分方程:線性微分方程解的三個重要特徵
    前一篇《帶你走進微積分的堂學習:一階線性微分方程式的基礎原理》詳細討論了線性微分方程的結構以及通解特性,本篇我們藉此機會指出一階線性微分方程解的三個重要特徵1)有一階線性微分方程>的通解是可以看出,它等於(1)的一個特解(對應於上式的C=0)再加相應的齊次線性(2)的通解,因此如果求得非齊次線性微分方程(1)的一個特解為y=φ1(x)和相應的齊次線性方程(2)的通解,則(1)的通解為2)設a(x)和b(x)在區間α<x<β上連續,則由上述通解公式可知
  • 微分方程VS機器學習,實例講解二者異同
    微分方程(DE)與機器學習(ML)類數據驅動方法都足以驅動 AI 領域的發展。二者有何異同呢?本文進行了對比。微分方程模型示例納維-斯託克斯方程(氣象學)這一模型被用於天氣預測。它是一個混沌模型,當輸入存在一點點不準確,預測結果就會大相逕庭。
  • 從代數方程、函數方程到微分方程
    代數方程,是要求計算出滿足條件的數。相當於由結果導出原因。直線思考的時候,計算一般得到一個明確的結果。但是,知道結果計算原因的話可能的情況比較多。無解、一解、多解或者無限多的解。這時是轉換學生思考的第一階段。跳過這個檻已經拉開大半的人。記得,小學時候難以理解一元二次方程的求解。2.函數方程:函數相對於靜態的數,有一種動態的味道。我們中學時將其上升為「代數」。
  • Facebook這個神經網絡用自然語言表示數學式,秒解微分方程!
    他們訓練了一個神經網絡來執行必要的符號推理,首次實現了對數學表達式的微分和積分。這項成果是邁向更強大的數學推理的重要一步,也是利用神經網絡超越傳統模式識別任務的新方法。在模式識別任務(如面部和物體識別,某些自然語言處理,甚至是玩象棋、圍棋和太空侵略者這樣的遊戲)上,神經網絡已經取得了巨大的成就。