最近arXiv上的一篇數學短文"Eigenvectors from Eigenvalues" (https://arxiv.org/abs/1908.03795) 引起了熱議,很大一部分原因是Terence Tao的明星效應以及媒體誇張的宣傳。該論文的主要結論是Hermitian matrix A特徵向量的 norm square 可以通過它的特徵值以及去掉一個特定行和列的submatrix M的特徵值得到:
證明過程很簡單,利用伴隨矩陣(adjugate matrices)
把等式兩邊作用於特徵向量且把行列式展開即有
即找到了伴隨矩陣的特徵值,有
通過伴隨矩陣的定義,可以得到最開始的等式。很多人已經指出這個等式在之前很多的參考文獻中就已被發現。(熱點已經蹭完) 之前也專門討論過,在實際運用中,如何求解特徵值才是重要的。對於特徵值問題
矩陣A經常有一些特性或規律(取決於不同的問題),不同的矩陣所用的最優解法也不同
特徵值問題的解法?
Power Iteration
這是最簡單的迭代解法,
取一個初始的x0然後按照上面的式子迭代最後會收斂到主特徵值。比如取
迭代過程會收斂到主特徵值2
當然這種方法缺陷太明顯,只求到了一個特徵值,並且收斂性很大的取決於初始值的設定,當然Inverse Iteration也可以用來求最小的特徵值
除此之外還有Orthogonal Iteration, QR Iteration,Rayleigh Quotient Iteration, Arnoldi Iteration, Lanczos Iteration, Jacobi method, Gaussian elimination, Cholesky decomposition,steepest descent (SD), conjugate gradient (CG), Davidson ...
之前主要關注Lanczos Iteration,SD, CG這些比較現代快速的求解方法,它們很適用於大維度對稱或厄米矩陣,而物理中經常出現這種矩陣,固體物理中描述能帶的Hamiltonian就是個Hermition,這種矩陣可以轉換為三對角矩陣
Lanczos迭代就是
SD and CG
可以定義向量的二次函數,把特徵值問題轉換為極值問題
它的導數為
給定一個初始的x(i)可以得到其導數最後得到一個新的x(i+1)
residual就是最速下降的方向(SD)這就是最速下降法。
如果往不同的方向取點,如一系列正交的方向,即共軛梯度法(CG),這種方法普遍比SD快。
可以這麼得到alpha係數
凝聚態物理實例之
Heisenberg XY chain
首先把具有周期性的XY模型的Hamiltonian化簡
使用Jordan-Wigner transformation把它玻色化並做Fourier transformation將其對角化
得到精確的解析解
Lanczos 迭代的結果
最後紀念一下線性代數的先驅者們,他們提出的概念和算法都影響和改變了這個世界的發展進程,雖然可能沒意識到。科學和工程中大多數問題的數值解也都可以歸結到特徵值問題,這裡只是冰山一角。