A為n階矩陣,若數λ和n維非0列向量x滿足Ax=λx,那麼數λ稱為A的特徵值,x稱為A的對應於特徵值λ的特徵向量。
它的物理意義是:
一個矩陣A乘以一個向量x,
就相當於做了一個線性變換λx。
方向仍然保持不變,
只是拉伸或者壓縮一定倍數λ。
特徵向量和特徵值的幾何本質,其實就是:
空間矢量的旋轉和縮放。
線性變換 A 對於特徵空間只起到「擴張(或者壓縮)」的作用(擴張後還是同樣的特徵空間)
求解特徵向量計算特徵多項式→求解特徵值→求解齊次線性方程組,得出特徵向量。沒錯,就是這個再普通不過的基礎數學求解公式。這也是教科書裡面求特徵值的方法!然而,三位物理學家PeterDenton、StephenParke、張西寧發現了一個全新的方法:
知道特徵值,只需要列一個簡單的方程式,特徵向量便可迎刃而解。大神和三位物理學家一起發表了論文,闡述了這個公式的證明過程!△三位物理學家分別是:張西寧、Peter Denton和Stephen Parke。
我完全沒想過,子矩陣的特徵值編碼了原矩陣特徵向量的隱藏信息。這麼短、這麼簡單的東西,早就應該出現在教科書裡了!!!
特徵向量和特徵值的幾何本質,其實就是空間矢量的旋轉和縮放。而中微子的三個味(電子,μ子,τ子),不就相當於空間中的三個向量之間的變換嗎?中微子振蕩是一種量子力學現象。實驗發現,電子中微子、μ子中微子和τ子中微子這三種中微子之間是可以相互轉化的,而這就是中微子振蕩現象。△圖源:Quantamagazine三個物理學家意識到,特徵向量和特徵值之間,可能存在更普遍的規律。子矩陣和原始矩陣的特徵值組合在一起,就可以計算原始矩陣的特徵向量。簡而言之,已知特徵值,一個方程式就可以求得特徵向量。△圖源:Quantamagazine
這個新公式有多牛?
新公式的非凡之處是,在任何情況下,你不需要知道矩陣中的任何元素,就可以計算出你想要的任何東西。
別被上面的話嚇著了,其實很簡單,我們用一個naive的二階對稱矩陣試一試就知道:
陶哲軒和Peter Denton、Stephen Parke、張西寧三位物理學家一起發表了論文,論文給出了兩種解法,一種給出一個Cauchy-Binet類型的行列式公式作為引理,構造式證明方法比較巧妙;ps:小編還在啃論文,希望能給出一個通俗的過程解釋。
在現實世界中,無論是在數學、物理學還是工程學中,許許多多的問題都涉及到特徵向量和特徵值的計算。圖像處理中的PCA方法,選取特徵值最高的k個特徵向量來表示一個矩陣,從而達到降維分析+特徵顯示的方法,還有圖像壓縮的K-L變換。再比如很多人臉識別,數據流模式挖掘分析等方面。在力學中,慣量的特徵向量定義了剛體的主軸。慣量是決定剛體圍繞質心轉動的關鍵數據。在譜系圖論中,一個圖的特徵值定義為圖的鄰接矩陣A的特徵值,或者(更多的是)圖的拉普拉斯算子矩陣, Google的PageRank算法就是一個例子。在量子力學中,特別是在原子物理和分子物理中,在Hartree-Fock理論下,原子軌道和分子軌道可以定義為Fock算子的特徵向量。相應的特徵值通過Koopmans定理可以解釋為電離勢能。在這個情況下,特徵向量一詞可以用於更廣泛的意義,因為Fock算子顯式地依賴於軌道和它們的特徵值。在神經網絡中,深度神經網絡本身可以看成是一種對特徵向量空間的轉換過程。因此是否可以在神經網絡每次作轉換的時候,根據特徵值(奇異值)大小來表示每一維特徵的重要性大小,從而調整相應權重的大小,這樣是否會使得訓練過程更加高效。https://arxiv.org/abs/1908.03795
https://arxiv.org/abs/1907.02534