總結:流形與流形上的方向

2021-02-11 魔力柱子

微分形式學習筆記(一)主要從多元函數的微積分引入,從變化速率(微分)加權求和(積分)開始,探討曲線積分和曲面積分的參數化形式,特別是強調了拉伸係數的概念,從而對不可展平曲面進行積分。

 

微分形式學習筆記(二)回顧了參數化與曲線和曲面積分的關係,通過局部的微分同胚定義流形。該定義的引入主要是為了保證可參數化與可積分之間的充要關係。需要強調的是,流形的定義要比可參數化的條件強,它的核心要求是如果兩個參數化之間有交集,則要求其交集的部分的一致性和無窮階光滑。舉例來說,一張紙如果將一個角折起90°,其面積並不改變,但是由於摺痕的兩邊需要使用不同的參數化,而在折線處不光滑,因此就不是一個流形。N維流形要求局部處處微分同胚於同維的Rn

 

微分形式學習筆記(三)引入了流形上的函數(標量場)和流形上的坐標網,這裡的坐標網是通過流形的嵌入空間進行參數得到的,對於一個二維的球面,我們利用嵌入三維空間的坐標(x,y,z)的參數化來構建坐標網,並根據這個坐標網來探討流形上的(切)方向。事實上,如果不考慮流形的嵌入空間,那麼流形上的方向就只有切方向,這是流形內蘊的,與其嵌入幾維空間無關

 

微分形式學習筆記(四)探討了最重要的承上啟下的內容。首先,我們明確了流形的維度是指流形上可以獨立移動的方向,而p點處的方向顯然可以對獨立移動的方向進行求導。由於線性化與求導的密切聯繫,通過引入泛函線性泛函的概念,我們證明了流形上p點處符合萊氏律的線性泛函L恰好可以反映其切方向!滿足萊氏律可以保證這個這個方向與p點對應,從而我們可以得出流形上的方向可以用泛函來表示而不必求導,其主要目的是為了繞過流形的嵌入空間

 

微分形式學習筆記(五)進一步澄清了泛函的概念,儘管泛函的映射結果是一個實數,但是泛函本身是一個向量,考慮p點處的所有切向量組成的空間,我們定義了切空間和向量叢。切空間是指p點處的所有切向量。如果考慮嵌入空間,則顯然p點處的所有向量並不僅是切向量,也會有法向量和其他向量,所有這些向量的組合構成一個向量空間,在不指定p點的情況下,向量叢指流形上所有點處向量空間的集合

 

微分形式學習筆記(六)主要定義了流形間切向量的推進,如果光滑映射F溝通了流形M和流形N,則定義一個滿足萊氏律的泛函F*(L)(g)=L(g•F)表示從流形M上的切方向到流形N上的切方向的推進。注意這裡的邏輯關係,對於流形M上的點p,F將其映射為流形N上的點F(p),然後流形N上的某個函數g作用於F(p),連接了流形N上的函數g與流形M上的p點的關係,從而可以理解為流形M上的一個複合函數,泛函L又將這個複合函數映成實數,這樣F*(L)(g)=L(g•F)就對應流形N上一個滿足萊氏律的泛函,從而是流形N上的一個切向量。

微分形式學習筆記(七)進一步明確的推進的性質,強調了推進是一個線性同態映射,同時在微分同胚的情況下,由於加入了一一對應的性質,流形的微分同胚就對應了切向量推進的線性同構

 

微分形式學習筆記(八)首先討論了流形與其微分同胚的Rn的向量間的映射關係,同時引入雅可比矩陣描述歐式空間向量間的推進,之所以可以這麼做,是因為歐式空間是自然坐標,有其自然基。這樣,任意歐式空間中的向量均可由一組係數和自然基來表示。

利用函數的複合,將這種標準的雅可比矩陣進行變形即可表示流形M與流形N之間切向量和切空間的推進。其數學含義在於用m*n維矩陣左乘一個m行的係數,得到一個n列的係數,推進反映了兩個流形向量間的映射關係,會自然地把基也包括進來,但是推進的矩陣表示並不涉及流形之間自然基的對應關係。流形的基由各自微分同胚的歐式空間誘導,而其係數的映射關係由矩陣反映。簡言之,基是基,係數是係數。由於在微分同胚的情形下雅可比矩陣表現為方陣,因此可以用於流形M的換元映射。

微分形式學習筆記(九)介紹了流形上的向量場的概念,根據歐式空間的自然基可以得到與其一一對應的M維流形上的標準基,通過這個標準基就可以分解任意p點處的任意切向量,在此基礎上探討了F-相關的定義,並明確微分同胚的流形之間必然存在F-相關的向量場。

相關焦點

  • 《流形上的幾何、分析與計算》項目舉行2017年度總結會
    、分析與計算》2017年度總結匯報會在中國科學院數學與系統科學研究院召開。、分析與計算》2017年度總結匯報會在中國科學院數學與系統科學研究院召開。   項目負責人周向宇作了項目2017年總結報告,孫斌勇、鞏馥洲和高小山分別作了項目三個研究團隊的成果匯報。
  • 流形中的向量(或者矢量)和向量場
    流形中的向量(或者矢量)和向量場1) 流形中的向量是線性代數中矢量空間的推廣,中間需要歐式空間過渡下,否則很抽象。正好反過來,很好玩;5) 既然歐式空間中的任意一個點為基礎,各種方向和長度的直線段是一個無限元素的集合,這個集合就是一個矢量空間。那麼很自然,流形上的點是否可以這麼做?6) 不可以,因為流形上的點,相對來說,還好確定,只是坐標分量比較多而已,但是方向無法確定啊?不像歐式空間,方向可以用直線段上的一點的坐標來描述。
  • 如何在黎曼流形上避開鞍點?本文帶你了解優化背後的數學知識
    接下來,我們需要了解可微流形 M 在 M 內的點 x 處的切空間 TxM。切空間是一個維度與 M 相同的向量空間。讀者需要了解這個概念:在標準 R^n 中,點 x ∈ R^n 處的切向量 v 可解釋為:對圍繞 x 局部定義的實值函數執行的一階線性可微運算。而這一點可以泛化至流形設置中。現在我們來看黎曼流形。黎曼流形具備黎曼度量。
  • 流形學習能幫到你
    今天的格物匯要給大家介紹一種新的機器學習算法——流形學習。流形學習流形學習是一類借鑑了拓撲流形概念的降維方法,與核PCA的目的一樣,它想要在低維空間中儘量保持在高維空間中的結構。一個形象的流形降維過程如下圖,我們有一塊捲起來的布,我們希望將其展開到一個二維平面,我們希望展開後的布能夠在局部保持布結構的特徵,其實也就是將其展開的過程,就像兩個人將其拉開一樣。
  • 流形的定向
    代數拓撲學的發展告訴我們, 定向實際上是一個拓撲的性質 (即流形是否可定向與微分結構無關), 它由第一Stiefel-Whitney 示性類決定. 最最基本的模型是向量空間,所以首先定義向量空間的定向是什麼;進而推廣至流形,光滑流形的每一點都有切空間,於是可以期望利用向量空間的定向來描述流形的定向。這是大體上的思路。
  • 愛犯錯的智能體:談談黎曼流形與視覺距離錯覺問題
    因此,黎曼流形的構造有可能解決格式塔心理學中提及的「旋轉不變性」問題。圖4 左:離散吸引子;右:連續吸引子[1]那能否讓計算機也實現類似的自我旋轉或推理能力呢?如果能實現,也許就往人工智慧方向邁進了一小步。關於流形學習的研究以人臉為例,先看下最初的人臉識別技術。
  • 流形, 許多的數字 Many in number
    結果, 更是雲霧繚繞😰。黎曼是第一個廣泛的展開真正需要把流形推廣到高維的工作的人。流形的名字來自黎曼原來的德語術語Mannigfaltigkeit,William Kingdon Clifford把它翻譯為"manifoldness"(多層)。在他的哥廷根就職演說中,黎曼表明一個屬性可以取的所有值組成一個Mannigfaltigkeit。
  • 主編綜述:流形優化簡介
    劉歆,中國科學院數學與系統科學研究院副研究員、博士生導師。主要研究方向包括:正交約束矩陣優化問題,線性與非線性特徵值問題,及其在電子結構計算中的應用;非線性最小二乘的算法與理論,分布式優化算法設計,及其在機器學習中的應用。2016年8月獲得國家自然科學基金委優秀青年科學基金;2016年10月獲得中國運籌學會青年科技獎;2017年2月入選中國科學院北京分院「啟明星」優秀人才計劃。
  • 潛圖學習:流形學習新視角
    動圖CNN和DGM在概念上與稱為流形學習或非線性降維的一系列算法相似,這些算法在我2000年代當學生時在機器學習中非常流行,並且仍用於數據可視化。多種學習方法的基礎假設是具有固有的低維結構的數據。流形學習算法能夠捕獲數據集的這種低維固有結構並將其表示在歐幾裡得空間中。圖來自Isomap論文[9]的補充材料。多重學習的目的是捕獲這些自由度(通過重構底層的「流形」,因此得名)並將數據的維數減少到其固有維數。與線性降維(例如PCA)的重要區別在於,由於數據的非歐幾裡德結構,可能無法通過線性投影來恢復流形:線性降維(左)與流形學習。
  • 你需要了解流形學習2.0版本
    可能很多人會問,流形學習有什麼用呢?首先流形學習可以作為一種數據降維的方式,第二,流形能夠刻畫數據的本質。其主要代表方法有等距映射、局部線性嵌入等。那麼,具有流形學習 2.0 之稱的潛圖學習方法如何呢?自從神經網絡提出以來,其在人臉識別、語音識別等方面表現出卓越的性能。以前需要人工提取特徵的機器學習任務,現在通過端到端的方法就能解決。
  • 浙大舉辦流形的幾何與拓撲國際會議
    12月24日-26日,流形的幾何與拓撲國際會議在浙江大學召開