eigenvalue and eigenvector

2021-02-20 daodaophysics

最近arXiv上的一篇數學短文"Eigenvectors from Eigenvalues" (https://arxiv.org/abs/1908.03795) 引起了熱議,很大一部分原因是Terence Tao的明星效應以及媒體誇張的宣傳。該論文的主要結論是Hermitian matrix A特徵向量的 norm square 可以通過它的特徵值以及去掉一個特定行和列的submatrix M的特徵值得到:

證明過程很簡單,利用伴隨矩陣(adjugate matrices)

把等式兩邊作用於特徵向量且把行列式展開即有

即找到了伴隨矩陣的特徵值,有

通過伴隨矩陣的定義,可以得到最開始的等式。很多人已經指出這個等式在之前很多的參考文獻中就已被發現。(熱點已經蹭完) 之前也專門討論過,在實際運用中,如何求解特徵值才是重要的。對於特徵值問題

矩陣A經常有一些特性或規律(取決於不同的問題),不同的矩陣所用的最優解法也不同

特徵值問題的解法?

Power Iteration

這是最簡單的迭代解法,

取一個初始的x0然後按照上面的式子迭代最後會收斂到主特徵值。比如取

迭代過程會收斂到主特徵值2

當然這種方法缺陷太明顯,只求到了一個特徵值,並且收斂性很大的取決於初始值的設定,當然Inverse Iteration也可以用來求最小的特徵值

除此之外還有Orthogonal Iteration, QR Iteration,Rayleigh Quotient Iteration, Arnoldi Iteration, Lanczos Iteration, Jacobi method, Gaussian elimination, Cholesky decomposition,steepest descent (SD), conjugate gradient (CG), Davidson ...

之前主要關注Lanczos Iteration,SD, CG這些比較現代快速的求解方法,它們很適用於大維度對稱或厄米矩陣,而物理中經常出現這種矩陣,固體物理中描述能帶的Hamiltonian就是個Hermition,這種矩陣可以轉換為三對角矩陣

Lanczos迭代就是

SD and CG

可以定義向量的二次函數,把特徵值問題轉換為極值問題

它的導數為

給定一個初始的x(i)可以得到其導數最後得到一個新的x(i+1)

residual就是最速下降的方向(SD)這就是最速下降法。

如果往不同的方向取點,如一系列正交的方向,即共軛梯度法(CG),這種方法普遍比SD快。

可以這麼得到alpha係數

凝聚態物理實例之

Heisenberg XY chain

首先把具有周期性的XY模型的Hamiltonian化簡

使用Jordan-Wigner transformation把它玻色化並做Fourier transformation將其對角化

得到精確的解析解

Lanczos 迭代的結果

最後紀念一下線性代數的先驅者們,他們提出的概念和算法都影響和改變了這個世界的發展進程,雖然可能沒意識到。科學和工程中大多數問題的數值解也都可以歸結到特徵值問題,這裡只是冰山一角。

相關焦點

  • Lecture 10 Eigenvalue and Eigenvector
    These special vectors are called eigenvectors, 「eigen-」 means special or characteristic, and eigenvalues show how these vectors are streched or shrunk or reversed or left unchanged.
  • Discussion on nonlinear problems and eigenvalue problems
    This report introduces our multi-level correction algorithms for solving semi-linear elliptic equations, eigenvalue problems, and inequality constraint optimization problems.
  • 矩陣:特徵向量(Eigenvector)
    凡是能被A拉長(縮短)的向量稱為A的特徵向量(Eigenvector);拉長(縮短)量就為這個特徵向量對應的特徵值(Eigenvalue)。值得注意的是,我們說的特徵向量是一類向量,因為任意一個特徵向量隨便乘以一個標量結果肯定也滿足以上方程,當然這兩個向量都可以看成是同一個特徵向量,而且它們也都對應同一個特徵值。