圖說冪法求特徵值和特徵向量

2021-03-01 數學中國

冪法是一種計算矩陣主特徵值及對應特徵向量的迭代方法。

原理很簡單:矩陣乘任一向量(非特徵向量),可將向量往主特徵向量的方向「拉扯」。

如圖中坐標原點是兩條粗藍線的交點,紅色的向量是[1, - 0.8]』

矩陣A=[1.1 , 0.3 ;  1.8, 1.4 ] 作用在空間上,使得空間伸縮旋轉,相對於上圖,本圖中紅色的向量也跟著轉了,A*x=[0.86,0.68]』 ,不過在新的變換後的坐標系下,仔細看值還是[1, -0.8]』 。

再用A乘,即A*A*x=A2x,空間及紅色的向量進一步扭轉。

再在原坐標系下看,多次變換後,即A的n次方後,紅色的向量會趨近於主特徵向量方向。

A的特徵向量是圖中的綠線。上圖的紅色向量經過n次A乘後,就很接近長的綠色的特徵向量了。

從代數上來講,也很容易得出此結論,(因λ1>λ2,λ1的n次方>>λ2的n次方),此處略。

再用圖示補充一下空間變換、特徵值、特徵向量的概念,如圖(先不考慮紅色的向量)

單位圓上的向量(黑色點表示),

經A變換後,或者說都被A乘後,就變成綠色的向量(點)。

圖中綠色的線是A的特徵向量[-1,2]』, [1,3]』。在特徵向量的方向上的向量,如粗黑色的向量[-0.3162, -0.9487]』,經A乘後,如下圖:


粗黑色的向量,變成藍色的向量,方向還在特徵向量的方向是,只是長度乘了「特徵值」2,(這裡A的特徵值是2和0.5)。

注意,A使得圓變成了橢圓,就是對空間的「線性」變換的結果。圖是二維的,正好有兩個特徵方向上的向量只伸縮,即Ax=λx

顏色一致的方向是特徵向量方向。

(2017.12.12繪此圖)

看圖發現沒有?特徵向量並沒在橢圓的軸上,看下圖中軸向上黃色的兩個向量,那麼橢圓軸上是什麼?

問題來了,順便我把這個矩陣A=[1.1 , 0.3 ;  1.8, 1.4 ]有關的向量都畫出來,(看著不暈吧!畫的有點亂,但都和A有關係)


因為是「圖說」,只簡單說明一下圖,圖上方網格是原來的空間,斜網格是A變換後的空間(為什麼叫線性變換、線性代數,網絡線還是直的,沒彎曲)。

按圖中標號,黑色1、2是A的列向量,組成新空間的基向量,也可以看作是由原來的兩個單位基向量[1,0]』、[0,1]』變換得到。紅色的3是前面講的任一向量,經A乘後變為紅色的向量4;如前所述,綠色的5、6是A的特徵向量,藍色的7是前面講的特徵向量方向上一向量(黑色被覆蓋)伸長λ後的向量。  黃色的8及9正在橢圓軸上,它們是矩陣A的左奇異向量u。也畫出紫色的10及11,是A的右奇異向量v,矩陣的奇異值分解,和特徵值特徵向量一樣都是很重要,應用很廣泛的內容。

圖中用到下列數據:    

A=[1.1, 0.3 ; 1.8, 1.4 ]

特徵向量C=[-1 ,1; 2 ,3],或C=[-0.4472, -0.3162; 0.8944, -0.9487]

特徵值D=[0.5 , 0; 0,  2]

奇異值s =[ 2.5184 , 0;   0  , 0.3971]

奇異向量u =[  -0.4298, -0.9029;  -0.9029 , 0.4298]

v =[  -0.8331 , -0.5531;  -0.5531 , 0.8331]

下面再換點顏色繪圖:


來源:康建科學網博客

http://blog.sciencenet.cn/blog-797552-1033056.html 

相關焦點

  • 特徵值和特徵向量計算證明題
    >的特徵值與特徵向量. 因為A可逆, 所以 為 的特徵值, 對應的特徵向量也是(1, 1,>的公共特徵向量, 對應的特徵值為 .求x 和y的值; ii.驗證 , 是A的兩個線形無關的特徵向量, 並求出相應的特徵值
  • 2018考研數學線代特徵值特徵向量
    【中公考研原創,轉載請註明出處】一、矩陣的特徵值與特徵向量問題1.矩陣的特徵值與特徵向量的概念理解以及計算問題這一部分要求會求給定矩陣的特徵值與特徵向量,常考的題型有數值型矩陣的特徵值與特徵向量的計算和抽象型矩陣的特徵值與特徵向量的計算。
  • 矩陣的特徵值與特徵向量
    ,也稱v為特徵值λ對應的特徵向量。求解特徵值和特徵向量的步驟如下:(1) 計算特徵多項式|A-λE|;(2) 求|A-λE|=0的所有根,即A的所有特徵值;(3) 對每個特徵值λ0,求解齊次線性方程組 Python求矩陣的特徵值與特徵向量並證明方陣的特徵分解:# -*- coding:utf-8 -*-import numpy as npR=np.array([[12,6,1],[6,8,0],[1,0,6]],dtype=float)print 'R=', Ra,b=np.linalg.eig
  • 特徵值和特徵向量的幾何意義、計算及其性質
    一、特徵值和特徵向量的幾何意義特徵值和特徵向量確實有很明確的幾何意義
  • 線性代數-5.4方陣的特徵值與特徵向量
    ,它和上面的表達式可能相等也可能互為相反數,但這不影響特徵值的計算.的特徵值和特徵向量的特徵值和特徵向量課堂索引:22 第五章 5.4特徵值與特徵向量5.4.4例題45.課堂索引:22 第五章 5.4特徵值與特徵向量5.4.4例題34.
  • 矩陣特徵值與特徵向量的幾何意義
    即, 如果對於數 λ,存在一個 n 維非零列向量X(即 X∈Rn 且 X≠0),使得AX= λX則稱數 λ 為矩陣 A 的一個特徵值, X 稱為矩陣 A 對應於 λ 的特徵向量。在線性代數中,研究線性變換就是研究相應的矩陣 A,矩陣 A 的特徵向量和特徵值是線性變換研究的重要內容。
  • 2020考研數學線性代數重點內容與常見題型:特徵值與特徵向量
    特徵值、特徵向量是線性代數的重點內容,是考研的重點之一,題多分值大。  1.重點內容  特徵值和特徵向量的概念及計算  方陣的相似對角化  實對稱矩陣的正交相似對角化  2.常見題型  (1)數值矩陣的特徵值和特徵向量的求法  (2)抽象矩陣特徵值和特徵向量的求法  (3)矩陣相似的判定及逆問題
  • 2013考研數學衝刺複習:矩陣的特徵值與特徵向量講解
    矩陣的特徵值與特徵向量問題是考研數學中一常考點,然而在最後衝刺這一階段,同學們在做真題和模擬題《考研數學絕對考場最後八套題》時對這一考點還存在一些疑惑,對此,文都考研數學的輔導老師特撰此文講解矩陣的特徵值與特徵向量問題,助同學們考研成功。
  • 深入理解矩陣特徵值與特徵向量的物理意義
    顧名思義,特徵值和特徵向量表達了一個線性變換的特徵。在物理意義上,一個高維空間的線性變換可以想像是在對一個向量在各個方向上進行了不同程度的變換,而特徵向量之間是線性無關的,它們對應了最主要的變換方向,同時特徵值表達了相應的變換程度。
  • 「神龍考研」考研數學考前預測重點題型之特徵值和特徵向量
    矩陣的特徵值和特徵向量是線性代數重要的基礎理論之一,這部分主要給出了矩陣特徵值和特徵向量的定義、性質和求法,討論了相似矩陣的概念、性質及相似對角化的條件,得出了矩陣相似對角化的方法. 實對稱矩陣的對角化是用正交變換化二次型為標準形的基礎.
  • 2015考研數學大綱解析:特徵值和特徵向量學習方法指導
    當然,特徵值和特徵向量部分也沒有發生變化。下面我以特徵值和特徵向量為例,深度解析考研數學大綱,希望對大家的學習有所幫助。  一、考試內容  矩陣的特徵值和特徵向量的概念、性質  相似矩陣的概念及性質  矩陣可相似對角化的充分必要條件及相似對角矩陣  實對稱矩陣的特徵值、特徵向量及其相似對角矩陣  二、考試要求  理解矩陣的特徵值和特徵向量的概念及性質,會求矩陣特徵值和特徵向量;理解相似矩陣的概念
  • 線性代數的本質:特徵向量與特徵值
    spm_id_from=333.788.videocard.0本篇來講一下線性代數中非常重要的一個概念:特徵向量/特徵值。接下來簡單介紹一下特徵值和特徵向量的計算方法,首先根據剛才的介紹,一個矩陣A的特徵向量,在經過這個矩陣所代表的線性變換之後,沒有偏離其所張成的直線,而只是發生了伸縮或方向改變,所以首先可以寫出下面的式子
  • 特徵值和特徵向量知識點小結
    相對於向量與線性方程組部分來說,本章不是線性代數這門課的理論重點,但卻是一個考試重點,歷年考研真題都有相關題目,而且最有可能是綜合性的大題。  特徵值和特徵向量之所以會得到如此青睞,大概是因為解決相關題目要用到線代中的大量內容--即有行列式、矩陣又有線性方程組和線性相關,"牽一髮而動全身";著重考察這樣的知識點,在保證了考察面廣的同時又有較大的出題靈活性。
  • 特徵值和特徵向量的物理意義,振動離不開它
    可以想一下,除了零向量,沒有其他向量可以在平面上旋轉30度而不改變方向的,所以這個變換對應的矩陣(或者說這個變換自身)沒有特徵向量(注意:特徵向量不能是零向量),所以一個變換的特徵向量是這樣一種向量,它經過這種特定的變換後保持方向不變,只是進行長度上的伸縮而已(再想想特徵向量的原始定義Ax = cx, cx是方陣A對向量x進行變換後的結果,但顯然cx和x的方向相同)。
  • 數學學習如此容易:用Python計算特徵值和特徵向量
    ,那麼這樣的數λ稱為矩陣A特徵值,非零向量x稱為A的對應於特徵值λ的特徵向量。特徵值 是方程式Ax=ax的標量解(scalar solutions),其中A是一個二維矩陣,而x是一維向量。 特徵向量 實際上就是表示特徵值的向量。提示:特徵值和特徵向量都是基本的數學概念,並且常用於一些重要的算法中,如 主成分分析(PCA) 算法。
  • 矩陣的瑰寶:深入挖掘特徵值和特徵向量,直觀地看抽象概念
    特徵值和特徵向量可能看起來是很抽象的概念,但它們在你周圍的世界中扮演著不可或缺的角色。因為一切都是由數據定義的,矩陣是處理數據的最佳工具,而它們又是矩陣中的瑰寶,可以揭示矩陣的性質。理解特徵值和特徵向量是什麼,如何推導它們,以及它們的應用,對于欣賞矩陣之美,以及更廣泛地理解數據和數學在世界中扮演的角色,都是不可或缺的。
  • 眾人皆醉我獨醒——深入理解「特徵值」和「特徵向量」
    我們已經知道,矩陣和向量的乘法就相當於對該向量做了一個線性變換。在這個變換中,大部分的向量都發生了偏移,脫離了原「軌道」。舉個例子:如上圖所示,向量w(2,3)在矩陣[-1,1;2,-2]的作用下,線性變換為另一個向量p(1,-2)。p和w明顯不在一條直線上,發生了偏移。
  • 矩陣的重要特性:特徵向量
    凡是能被A拉長(縮短)的向量稱為A的特徵向量 (Eigenvector);拉長(縮短)量就為這個特徵向量對應的特徵值 (Eigenvalue)。值得注意的是,我們說的特徵向量是一類向量,因為任意一個特徵向量隨便乘以一個標量結果肯定也滿足以上方程,當然這兩個向量都可以看成是同一個特徵向量,而且它們也都對應同一個特徵值。
  • 矩陣:特徵向量(Eigenvector)
    凡是能被A拉長(縮短)的向量稱為A的特徵向量(Eigenvector);拉長(縮短)量就為這個特徵向量對應的特徵值(Eigenvalue)。值得注意的是,我們說的特徵向量是一類向量,因為任意一個特徵向量隨便乘以一個標量結果肯定也滿足以上方程,當然這兩個向量都可以看成是同一個特徵向量,而且它們也都對應同一個特徵值。
  • 【特徵向量新解法】數學天才陶哲軒和三位物理學家的新發現
    特徵向量和特徵值的幾何本質,其實就是:空間矢量的旋轉和縮放。線性變換 A 對於特徵空間只起到「擴張(或者壓縮)」的作用(擴張後還是同樣的特徵空間)求解特徵向量計算特徵多項式→求解特徵值→求解齊次線性方程組,得出特徵向量。