天生一對,硬核微分方程與深度學習的「聯姻」之路

2020-12-12 機器之心Pro

微分方程真的能結合深度神經網絡?真的能用來理解深度神經網絡、推導神經網絡架構、構建深度生成模型?我們將從鄂維南、董彬和陳天琦等研究者的工作中,窺探微分方程與深度學習聯袂前行的路徑。

近日,北京智源人工智慧研究院開展了第一次論壇,其以「人工智慧的數理基礎」這一重大研究方向為主題,從數學、統計和計算等角度討論了智能系統應該怎樣融合數學系統。

在論壇中,北京大學董彬副教授、林偉研究院和張志華教授等研究者從基礎出發介紹了「數學」眼中的機器學習是什麼樣的。而這些數理基礎,正好是構建可計算、可泛化、可解釋和穩健 ML 系統所必需的。

在眾多演講中,我們發現董彬老師介紹的微分方程非常有吸引力,它對於探索新的深度學習架構、構建更高性能的深度學習模型非常有幫助。因此在這篇文章中,我們重點關注微分方程在深度學習中的應用,看起來,它們確實是天生一對的組合。

微分方程與深度學習

深度學習還能與微分方程相結合?是的,這是一個很有意思的領域,近來也有非常多的研究成果,包括 NeurIPS 2018 的最佳論文。那麼什麼是微分方程,它結合深度學習又有什麼用呢?

按照維基百科的描述:「微分方程是一種數學方程,用來描述某一類函數與其導數之間的關係」,因此一個方程如果同時包含函數及其導數,那麼就可以稱為微分方程。例如,f'(x) = 2x 就是一個常微分方程,我們可以「看出來」其通解為 f(x)=x^2 +C,其中 C 表示任意常數。

不過深度學習一般也就會用到概率論、線性代數和最優化等基礎數學,似乎與微分方程沒什麼關係?其實並不然,如果我們探索網絡架構到底與數學的哪些概念是相關的,那麼會發現深度神經網絡可以理解為一種微分方程。即,深度神經網絡架構,就是離散化的微分方程。

因此如果能找到了微分方程與深度網絡之間的關係,那麼兩個領域之間的研究成果就能互相借鑑,也就能找到更高效的深度模型。

此外,深度學習的模型設計缺少系統指導,大多數深度學習模型都缺少可解釋性,這也限制了它的應用。如果加上了微分方程,那麼網絡架構就是數值微分方程,網絡訓練就是最優控制,神經網絡的設計也就能有理論指導了。

如上圖所示,比較受關注的是神經網絡架構與數值微分方程之間的關係,這個領域早期比較有影響的就是北大、普林斯頓教授鄂維南老師的研究,它首次將殘差網絡理解為微分方程。北大董彬等研究者在 ICML 2018 中進一步表明 ResNet、PolyNet、FractalNet 和 RevNet 等網絡都可以理解為微分方程的不同數值離散方式。

此外,在 NeurIPS 2018 的最佳論文中,陳天琦等研究者提出神經常微分方程,在近似常數級的內存成本上,ODENet 能實現高效的圖像分類和生成任務。在 ICLR 2019 中,陳天琦等研究者進一步將微分方程應用到流模型中,從而獲得內存效率更高的生成模型。

正如董彬老師所言,通過結合微分方程,我們可以從數學角度出發設計網絡架構,並分析它們的泛化性能和可解釋性。在這篇文章中,我們希望從基本概念到應用,介紹該領域的一些新想法。

數學老師眼中的 ResNet

鄂維南院士是一位主要關注數學領域的研究者,也是北京大學和普林斯頓大學的教授。在 17 年的《Communications in Mathematics and Statistics》中,鄂維南發表了一篇文章,他討論了使用連續動力學系統建模高維非線性函數的想法,即微分方程與深度學習之間的關係。

以下是該工作的地址:

論文:A Proposal on Machine Learning via Dynamical Systems論文地址:https://link.springer.com/article/10.1007/s40304-017-0103-z

在這篇「Proposal」中,鄂老師表示深度神經網絡可以理解為離散的動力學系統。離散的動力學系統很難分析,但連續的動力學系統在數學上更易於分析,因此它可作為深度神經網絡的數學基礎。此外,因為有很多種方式離散化動力學系統,所以我們也許能構建更多有意思的模型。例如,動力學系統可以選擇自適應的時間步大小,這對應於選擇自適應的神經網絡層級。

這一篇文章提出了非常多的新洞見,尤其是結合常微分方程與深度殘差網絡的新視角。下面讓我們看看在數學家的眼中,殘差網絡到底該怎樣推導。

離散動態系統:ResNet

因為 DNN 可以視為離散的動力學系統,那麼每一步最基礎的動力學過程即線性變換加上非線性激活函數,這是最簡單的非線性離散動力學系統之一。具體而言對於深度殘差網絡,我們可以用離散動態系統描述為:

其中 Z_l 和 Z_l+1 為第 l 層的輸入與輸出,y_l 為第 l 層的輔助變量,h 和 g 為一些映射,它們可以是線性的,也可以是非線性的。對於深度神經網絡,如果 g 和 h 是恆等映射,訓練會非常順暢,那麼為什麼會這樣呢?為什麼 g 和 h 是恆等映射就能減輕梯度爆炸或消失問題?

實際上,如果令 G 為 g 的逆向映射(inverse map),我們可以將上述動力學系統寫為:

為了有一個穩定的訓練過程,即梯度不爆炸、不消失,上述方程右邊的梯度需要接近於恆等映射。也就是說,梯度由後向前傳時,它在量上需要保持穩定。鄂老師表示若令 h 和 g 都為恆等映射,Gh 就逼近恆等映射(F 為較小隨機擾動),梯度的傳遞就非常平穩。

其實若 h 和 g 為恆等映射,那麼方程 2.3 就可以寫為:

這難道不就是標準的殘差連接嗎?它不就是如下動態系統的離散化嗎?

這裡 t 相當於層級 l 的連續化,如果 l 趨向於無窮小,那麼按照導數的定義,z_l+1 與 z_l 兩層之間的差就趨向於 z 對 t 的導數。所以,可以說殘差網絡其實就是連續變換的歐拉離散化,它是一個特例。

如果從導數定義的角度來看方程 2.7,當 t 的變化趨向於無窮小時,隱藏狀態的變化 dz 可以通過神經網絡建模。當 t 從初始一點點變化到終止,那麼 z(t) 的改變最終就代表著前向傳播結果。

從節選的幾步推導,我們可以看到,ResNet 能天然理解為動力學系統,能用微分方程天然表示。但是所有的,或大多數深度神經網絡都能這樣理解嗎?董彬老師做了進一步的研究,他們將這一觀點推廣到了更多的深度神經網絡。

其它深度卷積網絡又怎樣?

北京大學董彬副教授等研究者做了進一步探討,即 ResNet 與微分方程的這種關係是特例還是一般化的聯繫。如果數值 ODE 和網絡構架的聯繫建立起來了,董彬老師表示我們就可以從數值 ODE 反推出一些有用的神經網絡構架。因為 ODE 已經發展了幾十年,有豐富的研究成果可以參考,反推的新架構可能取得更好的效果。

在 ICML 2018 的一項研究中,董彬等研究者表示很多高效的卷積神經網絡都能解釋為微分方程,並基於微分方程的線性多步解法提出新的線性多步架構,這種結構能提升 ImageNet 等的圖像分類任務的性能。

論文:Beyond Finite Layer Neural Networks: Bridging Deep Architectures and Numerical Differential Equations論文地址:https://arxiv.org/abs/1710.10121微分方程的解法即網絡架構

這裡展示了其它卷積網絡與微分方程之間的關係,它們在圖像識別等任務上都非常有效。如下所示為 ResNet 及其它三種卷積網絡架構。

圖源:arXiv: 1710.10121

其中 PolyNet 為每個殘差模塊引入了 PolyInception 模塊,從而加強模塊的表達能力。PolyInception 模塊是 Inception 單元的「多項式」組合,它會以並行或串行的方式集成多條計算路徑。FractalNet 以自相似性為基準設計架構,它會重複引用簡單的擴展規則,從而生成結構為截斷分形(fractal)的深度網絡。最後的 RevNet 是一種可逆網絡,它不需要在前饋傳播中儲存中間激活值。

在下表中,董彬老師總結了不同卷積網絡對應的微分方程數值解法。其中 ResNet 和 ResNeXt 可視為步長為 1 的前向歐拉離散化,其它卷積網絡也對應著不同的離散化方式。

圖源:arXiv: 1710.10121

PolyNet

這裡我們先看看 PolyNet 怎樣搭上微分方程這班車。PolyNet 主要希望提供多樣性的架構,因此 PolyInception 除了常規殘差模塊的一階路徑,還添加了另一條二階路徑。具體而言,PolyInception 模塊可以表示為:

其中 I 表示恆等映射,「·」表示作用於,即 F·x 表示非線性變換 F 作用於 x。我們可以看到,PolyInception 多了一個二階的複合函數,也就是說,如果 F 表示某種 Inception 模塊,那麼二階的路徑會穿過串聯的兩個 Inception 模塊。在 PolyNet 原論文中,作者展示了可能的 PolyInception 結構:

圖源:arXiv: 1611.05725

如上所示,a 和 b 是等價的,F 和 G 表示是否共享參數。董彬老師表示,PolyNet 可以解釋為時間步為 1 的反向歐拉方法,實際上前向傳播就是在解一個反向歐拉。

不過本身反向歐拉要求解一個非常巨大的非線性方程組的逆,這樣無法求解就只能用多項式去逼近解。也就是說,上式的求逆又可以寫為:

因此,PolyNet 可以視為採用反向歐拉策略解常微分方程 u_t = f(u) 的逼近方法。如果這樣理解,那麼它暗示著允許更大的時間步大小,因此這表示我們可以採用更少的殘差模塊就能構建更好的效果。這正好解釋了,為什麼 PolyNet 能增加殘差模塊寬度而降低層級深度,從而實現更好的分類準確度。

此外,從微分方程的角度來說,反向歐拉法要比正向歐拉法有更好的穩定性。這也能從側面說明為什麼在相近參數和計算量下,PolyNet 能實現更好的效果。

FractalNet 與 RevNet

FractalNet 與 RevNet 也都有對應的微分方程「解法」,研究者發現 FractalNet 的宏觀架構能解釋為數值分析中著名的 Runge-Kutta 方法。例如對於複合次數小於等於 2 的 FractalNet,每一個模塊都可以表示為:

其中 f_1 和 f_2 分別表示不同的 Fractal,如果我們看看二階的 Runge-Kutta 方法,我們就會發現他們的表達式非常相似:

另外的 RevNet 也是一樣,因為它是一種可逆的深度網絡,所以它有從 X 到 Y 和 Y 到 X 的過程。如果它們分別對應著前向歐拉方法,那麼就表示兩條簡單的動態系統就能描述整個神經網絡。此外值得注意的是,雖然深度學習中很少有可逆的雙向網絡,但是在微分方程中,動態系統的正反向都是可行的。

最後,董彬老師還根據數值微分方程提出了一種新的結構:Linear Multi-step Architecture。他表明加上這種結構,殘差網絡只需要一半的參數量就能達到相同的訓練效果,這表示新結構使卷積網絡的訓練更高效與穩定,希望了解的讀者可查閱董老師的原論文。

神經化的微分方程

微分方程除了為深度網絡提供理論解釋,並啟發架構創新,它還能做一些更炫酷的工作嗎?多倫多大學陳天琦等研究者表示,既然殘差連接就是常微分方程(ODE)的離散化,那麼常規神經網絡的前向傳播過程豈不就是微分方程給定初值解末值的過程?如果我們用業界成熟的微分方程求解器(ODESolve)解某個 ODE,這不就能代替前傳和反傳麼?

在他們的研究 ODENet 中,研究者使用神經網絡參數化隱藏狀態的導數,而不是如往常那樣直接參數化隱藏狀態。這裡參數化隱藏狀態的導數就類似構建了連續性的層級與參數,而不再是離散的層級。因此參數也是一個連續的空間,我們不需要再分層傳播梯度與更新參數。

簡而言之,ODENet 中的神經網絡建模可以表示為下式:

其中 f 表示的是神經網絡,h 表示的是隱藏狀態。相比而言,常規卷積網絡可表示為 h(t+1) = f(h(t), θ)。

如果參數化的是隱藏狀態的變化,神經微分方程在前向傳播過程中不儲存任何中間結果,因此它只需要近似常數級的內存成本。

論文:Neural Ordinary Differential Equations論文地址:https://arxiv.org/abs/1806.07366實現地址:https://github.com/rtqichen/torchdiffeq新穎的前傳與反傳

其實 ResNet 只不過是簡單的歐拉離散化,而近百年來,數學家構建了很多現代 ODE 求解方法。這些新方法不僅能保證收斂到真實解,同時還能控制誤差水平。

ODENet 就採用了一種適應性 ODESolver 代替前向傳播過程,它不像歐拉法移動固定的步長,相反它會根據給定的誤差容忍度選擇適當的步長逼近真實解。

如下圖所示,左邊的殘差網絡定義有限轉換的離散序列,它從 0 到 1 再到 5 是離散的層級數,且在每一層通過激活函數做一次非線性轉換。此外,黑色的評估位置可以視為神經元,它會對輸入做一次轉換以修正傳遞的值。而右側的 ODE 網絡定義了一個向量場,隱藏狀態會有一個連續的轉換,黑色的評估點也會根據誤差容忍度自動調整。

圖源:arXiv: 1806.07366

所以 ResNet 採用的是固定的步長 1,適應性 ODESolver 可以自動估計不同的步長,它的自由度和誤差控制都更強一些。

對於新穎的前向傳播,我們可以通過兩段偽代碼了解它與常規方法的不同之處。如下是 ResNet 的簡要偽代碼,定義 f 為卷積層、T 為殘差塊的數量:

def f(h, t, θ):return nnet(h, θ_t)def resnet(h): for t in [1:T]: h = h + f(h, t, θ) return h

如下展示的是整個 ODEnet 的偽代碼,f 表示的也是神經網絡層級。不過它不需要層層堆疊離散的層級,只要通過 ODESolver 求出終止時刻 t_1 的 h 就行了,整個 ODESolver 就是一個黑箱過程。

def f(h, t, θ):return nnet([h, t], θ)def ODEnet(h, θ): return ODESolver(f, h, t_0, t_1, θ)

所以不同之處在於 ODESlover 代替了整個前傳過程,這樣豈不是無法進行反向傳播了?為了「繞過」前向傳播中的 ODESolver,陳天琦等研究者採用了一種名為 adjoint method 的梯度計算方法。也就是說,模型在反傳中通過第二個增廣 ODESolver 算出梯度,其可以逼近按計算路徑從前向 ODESolver 傳遞迴的梯度,因此可用於進一步的參數更新。

總之,通過一系列推導,反向傳播在不知道中間激活值的情況下,直接求一個微分方程就行了。我們並不需要一層層反向傳遞梯度,就能直接獲得更新參數的梯度。ODENet 的反向傳播過程如下偽代碼所示:

def f_and_a([z, a], t):return[f, -a*df/da, -a*df/dθ][z0, dL/dx, dL/dθ] = ODESolver([z(t1), dL/dz(t), 0], f_and_a, t1, t0)

其中 f_and_a 為增廣狀態的動力學過程,用於求解微分方程。ODESlover 求出來的 dL/dθ 就可以直接用來更新神經網絡的權重。

ODENet 採用了一種非常新穎的前向與反向傳播過程,它和常規的神經網絡訓練完全不一樣。它的優勢也體現在這種差異上,因為反向傳播不需要保留前傳的中間計算結果,所以只需要常數級的內存要求。

微分方程也能搭生成模型

在 ODENet 中,研究者也展示了將微分方程應用到生成模型的前景。因此在 ICLR 2019 中,陳天琦等研究者進一步研究了微分方程如何用於流模型。

論文:FFJORD: Free-form Continuous Dynamics for Scalable Reversible Generative Models論文地址:https://arxiv.org/abs/1810.01367

目前,最流行的生成模型 GAN 通過生成器與判別器的博弈,從而逼近真實數據的概率密度函數 p(x)。但流模型希望通過一系列可逆轉換,明確地學習到數據分布 p(x)。因此,流模型會通過可逆神經網絡將數據點從一個簡單分布映射到複雜分布。

但基於似然度訓練常規流模型需要限制它們的架構,從而使雅可比行列式的計算成本足夠小。例如流模型 Real NVP 或 Glow 等,它們對矩陣維度進行分割或使用秩為 1 的權重矩陣進行限制。

ODENet 使用常微分方程定義了一種從隱變量到數據的映射,它可以使用相對低成本的跡運算計算雅可比行列式。後面提出的 FFJORD 進一步發揚了這種觀點,它將跡估計和前向傳播都定義為了常微分方程,並使用 ODESolver 直接求解。直觀而言,FFJORD 的抽象過程可如下圖所示:

圖源:arXiv: 1810.01367

如上圖所示,對於微分方程而言,我們知道初始的隨機分布 z(t_0),並系統通過 ODESolver 解出真實圖像分布 z(t_1)。如果知道了 z(t_1),那麼從中採樣就能生成真實圖像。

最後,這些方向與成果都表明,微分方程真的可以和深度神經網絡相結合。也許以後,微分方程乃至其它數理基礎,都能幫助我們構建更魯棒和可解釋性的機器學習系統。

相關焦點

  • 「神經常微分方程」提出者之一:如何利用深度微分方程模型處理連續...
    多倫多大學助理教授、向量學院聯合創始人、NeruIPS 2018 最佳論文獎得主,將帶著對微分方程和連續時間的最新思考出現在 WAIC 開發者日。提到 David Duvenaud 你或許有些陌生,但最近大熱的「神經常微分方程」想必你一定聽說過。
  • 硬核NeruIPS 2018最佳論文,一個神經了的常微分方程
    他們提出了一種名為神經常微分方程的模型,這是新一類的深度神經網絡。神經常微分方程不拘於對已有架構的修修補補,它完全從另外一個角度考慮如何以連續的方式藉助神經網絡對數據建模。在陳天琦的講解下,機器之心將向各位讀者介紹這一令人興奮的神經網絡新家族。
  • 最新研究:新的深度學習技術破解偏微分方程的數學難題
    通過解此偏微分方程,可以得知任何時間點的流體運動,並模擬將如何繼續運動或之前是如何運動的。但這些計算非常複雜且計算量很大,所以常常依賴超級計算機來進行數學運算。這就是人工智慧領域可以發揮作用的地方。通過使用深度學習來加快解決的速度,將對科學探索和工程應用產生很大的好處。
  • MATLAB建模實例——微分方程
    ❝歡迎關注「工科男的Maltab學習日誌」,採用Mardown文本編輯器編寫文章,全新排版升級,內容、代碼更簡潔,同時開通了視頻號,「工科男的日常」歡迎大家關注。 ——工科男記號: 在表達微分方程時,用字母D表示求微分,D2、D3等表示求高階微分.任何D後所跟的字母為因變量,自變量可以指定或由系統規則選定為確省。
  • 常微分方程|第四章 高階微分方程--常數變易法
    ❝之前討論了齊次線性微分方程的通解結構,下面我們來討論非齊次微分方程的通解結構。❞考慮n階非齊次線性微分方程:我們知道齊次微分方程:就為其特殊形式,所以兩者之間解的性質與結構有很密切的聯繫。我們可以很容易知道下面的性質:「性質1」: 如果
  • 含納維-斯託克斯方程(氣象學)實例,微分方程 VS 機器學習
    微分方程與機器學習作為 AI 領域建模的兩種方法,各自有什麼優勢?微分方程(DE)與機器學習(ML)類數據驅動方法都足以驅動 AI 領域的發展。二者有何異同呢?本文進行了對比。請注意 Murray-Gottman「愛情模型」實際上是一個差分方程(微分方程的一種姊妹模型)。
  • 2017考研高數六大基本題型:微分方程解常微分方程
    新東方網>大學教育>考研>複習指導>數學>正文2017考研高數六大基本題型:微分方程解常微分方程 2016-10-26 16:48 來源:新東方網整理
  • 微分萬物:深度學習的啟示
    這就是微分編程的思想。深度學習技術的快速發展為微分編程提供了趁手的工具,也為計算物理開闢了一番新天地。文章介紹微分編程的基本概念,並舉例說明它在建模、優化、控制、反向設計等物理問題中的應用。關鍵詞  微分編程,自動微分,計算物理深度學習在做什麼?對於這個問題,人們的第一反應往往是「訓練人工神經網絡」。
  • 偏微分方程 學習筆記
    有一句話叫做「數學是大自然的語言,而偏微分方程則是大自然的語法」,從此足以看出偏微分方程在自然界中的廣泛應用。無論是工程領域,量子領域,還是金融領域等,都有著偏微分方程的影子。偏微分方程理論研究的發展,更是衍生出了一系列新的研究領域,例如金融工程這一學科,開始獨立於傳統的金融學,就得益於偏微分方程應用到了期權定價當中,從而催生出了現代金融理論。
  • 微分方程VS機器學習,實例講解二者異同
    編輯:小舟微分方程與機器學習作為 AI 領域建模的兩種方法,各自有什麼優勢?微分方程(DE)與機器學習(ML)類數據驅動方法都足以驅動 AI 領域的發展。二者有何異同呢?本文進行了對比。請注意 Murray-Gottman「愛情模型」實際上是一個差分方程(微分方程的一種姊妹模型)。差分方程輸出離散的數字序列(例如,每 5 年的人口普查結果),而微分方程則建模連續數值(即持續發生的事件)。上述 5 個模型(微分和差分方程)都是機械模型,我們可以在其中自行選擇系統的邏輯、規則、結構或機制。
  • 華為深度學習框架MindSpore正式開源:自動微分不止計算圖
    作為一款「全場景 AI 框架」,MindSpore 是華為人工智慧解決方案的重要組成部分,與 TensorFlow、PyTorch、PaddlePaddle 等流行深度學習框架對標,旨在大幅度降低 AI 應用開發門檻,讓人工智慧無處不在。MindSpore 是一款支持端、邊、雲獨立/協同的統一訓練和推理框架。
  • AI已能求解微分方程,數學是這樣一步步「淪陷」的
    今天我們就簡單梳理一下機器學習解方程的近些年最新進展。首先,先得說明,所謂的AI解方程,解的可不是簡單的數值方程!人家正經求解的是面對實際工程問題的偏微分方程,又稱PDE。什麼是偏微分方程呢?△ 利用稀疏回歸進行方程學習的示意圖而具體的操作步驟其實也不難理解:對於同一個變量的所以可能存在的偏微分看作是候選量,對他們用遍歷算法一個一個去篩選出來;如果篩選出來的和訓練的數據對上了,那就說明這個偏微分的算子就是應該是對應方程裡的算子
  • 圖神經常微分方程,如何讓 GNN 在連續深度域上大顯身手?
    一、深度學習中的常微分方程一種類型不同但重要性相等的歸納偏差與收集到數據所使用系統的類別相關。儘管從傳統上看,深度學習一直由離散模型主導,但在最近的研究提出了一種將神經網絡視為具有連續層的模型[6]的處理方法。這一觀點將前向傳播過程,重定義為常微分方程(ODE)中初值求解的問題。
  • 描述物質運動變化的數學學科:常微分方程、偏微分方程
    隨著分析學對函數引入微分運算,表示未知函數的導數以及自變量之間的關係的方程進入數學家的視野,這就是微分方程。微分方程的形成與發展與力學、天文學、物理學等科學技術的發展密切相關。因為在現實的世界中,物質的運動及其變化規律在數學上是用函數關係來描述的,這意味著問題的解決就是要去尋求滿足某些條件的函數,而這類問題就轉換為微分方程的求解問題。
  • MATLAB建模實例——差分方程
    ,同時開通了視頻號,「工科男的日常」歡迎大家關注。 「差分方程」,差分方程也叫遞推關係。「解」 在第一個月時,只有一對小兔子,過了一個月,那對兔子成熟了,在第三個月時便生下一對小兔子,這時有兩對兔子。再過一個月,成熟的兔子再生一對小兔子,而另一對小兔子長大,有三對小兔子。
  • 偏微分方程的起源
    ,也簡稱微分方程;如果一個微分方程中出現多元函數的偏導數,或者說如果未知函數和幾個變量有關,而且方程中出現未知函數對幾個變量的導數,那麼這種微分方程就是偏微分方程。這樣就產生了研究某些物理現象的理想了的多個變量的函數方程,這種方程就是偏微分方程。
  • 877常微分方程2016年考研初試試卷真題(青島大學)
    新東方網>大學教育>考研>考研試題>歷年真題>專業課>正文877常微分方程2016年考研初試試卷真題(青島大學) 2020-12-02 14:42 來源:青島大學
  • 常微分方程:線性微分方程解的三個重要特徵
    前一篇《帶你走進微積分的堂學習:一階線性微分方程式的基礎原理》詳細討論了線性微分方程的結構以及通解特性,本篇我們藉此機會指出一階線性微分方程解的三個重要特徵1)有一階線性微分方程>的通解是可以看出,它等於(1)的一個特解(對應於上式的C=0)再加相應的齊次線性(2)的通解,因此如果求得非齊次線性微分方程(1)的一個特解為y=φ1(x)和相應的齊次線性方程(2)的通解,則(1)的通解為2)設a(x)和b(x)在區間α<x<β上連續,則由上述通解公式可知
  • 我們一起學習什麼是「齊次微分方程」
    在前面所講的變量分離的微分方程和線性微分方程是可以用初等積分法求解的標準方程,在微分方程的應用中,出現的方程是多種多樣的,如果我們能夠找到一種初等的變換,把有關的微分方程化為兩種標準方程之一,那麼原來的方程也就得解了,至於怎麼找到這種初等變換,卻無償規可循,只能說是「熟能生巧
  • 微分方程重點一:常係數齊次線性微分方程
    微分方程前面的都是一些基礎,如果是一些和其他題型結合在一起的題目的話,可能會考前面的微分方程內容,比如說求知道函數的全微分,讓求原函數這類的。但是如果微分方程考大題的話,就是考二階常係數非齊次線性微分方程了。之前講的微分方程解的結構是基礎,主要是為了說明做題時我們需要求什麼。