特徵向量的物理意義

2021-03-01 數據挖掘攻城獅

什麼是特徵向量,特徵值,矩陣分解
我們先考察一種線性變化,例如x,y坐標系的橢圓方程可以寫為x^2/a^2+y^2/b^2=1,那麼坐標系關於原點做旋轉以後,橢圓方程就要發生變換。我們可以把原坐標系的(x,y)乘以一個矩陣,得到一個新的(x',y')的表示形式,寫為算子的形式就是(x,y)*M=(x',y')。這裡的矩陣M代表一種線性變換:拉伸,平移,旋轉。那麼,有沒有什麼樣的線性變換b(b是一個向量),使得變換後的結果,看起來和讓(x,y)*b像是一個數b乘以了一個數字m*b?換句話說,有沒有這樣的矢量b,使得矩陣A*b這樣的線性變換相當於A在矢量b上面的投影m*b?如果有,那麼b就是A的一個特徵向量,m就是對應的一個特徵值。一個矩陣的特徵向量可以有很多個。特徵值可以用特徵方程求出,特徵向量可以有特徵值對應的方程組通解求出,反過來也一樣。例如,設A為3階實對稱矩陣,a1=(a,-a,1)T是Ax=0的解,a2=(a,1,-a)T是(A+E)x=0的解,a≠2,則常數a=?因為a1=(a,-a,1)T是Ax=0的解,說明a1=(a,-a,1)T是A的屬於0的特徵向量,a2=(a,1,-a)T是(A+E)x=0的解,說明a2=(a,1,-a)T是A的屬於-1的特徵向量。實對稱矩陣屬於不同特徵值的特徵向量式正交的,所以a^2-a-a=0,a≠2,所以a=0。

還是太抽象了,具體的說,求特徵向量的關係,就是把矩陣A所代表的空間,進行正交分解,使得A的向量集合可以表示為每個向量a在各個特徵向量上面的投影長度。例如A是m*n的矩陣,n<m,那麼特徵向量就是m個(因為秩最大是m),n個行向量在每個特徵向量E上面有投影,其特徵值v就是權重。那麼每個行向量現在就可以寫為Vn=(E1*v1n,E2*v2n...Em*vmn),矩陣變成了方陣。如果矩陣的秩更小,矩陣的存儲還可以壓縮。再:由於這些投影的大小代表了A在特徵空間各個分量的投影,那麼我們可以使用最小2乘法,求出投影能量最大的那些分量,而把剩下的分量去掉,這樣最大限度地保存了矩陣代表的信息,同時可以大大降低矩陣需要存儲的維度,簡稱PCA方法。
舉個例子,對於x,y平面上的一個點(x,y),我對它作線性變換,(x,y)*[1,0;0,-1],分號代表矩陣的換行,那麼得到的結果就是(x,-y),這個線性變換相當於關於橫軸x做鏡像。我們可以求出矩陣[1,0;0,-1]的特徵向量有兩個,[1,0]和[0,1],也就是x軸和y軸。什麼意思呢?在x軸上的投影,經過這個線性變換,沒有改變。在y軸上的投影,乘以了幅度係數-1,並沒有發生旋轉。兩個特徵向量說明了這個線性變換矩陣對於x軸和y軸這兩個正交基是線性不變的。對於其他的線性變換矩陣,我們也可以找到類似的,N個對稱軸,變換後的結果,關於這N個對稱軸線性不變。這N個對稱軸就是線性變換A的N個特徵向量。這就是特徵向量的物理含義所在。所以,矩陣A等價於線性變換A。
對於實際應用的矩陣算法中,經常需要求矩陣的逆:當矩陣不是方陣的時候,無解,這是需要用到奇異值分解的辦法,也就是A=PSQ,P和Q是互逆的矩陣,而S是一個方陣,然後就可以求出偽逆的值。同時,A=PSQ可以用來降低A的存儲維度,只要P是一個是瘦長形矩陣,Q是寬扁型矩陣。對於A非常大的情況可以降低存儲量好幾個數量級。
特徵向量有什麼具體的物理意義?例如一個駐波通過一條繩子,繩子上面的每個點組成一個無窮維的向量,這個向量的特徵向量就是特徵函數sin(t),因為是時變的,就成了特徵函數。每個點特徵值就是每個點在特定時刻的sin(x+t)取值。再如,從太空中某個角度看地球自轉,雖然每個景物的坐標在不斷的變換,但是這種變換關於地球的自傳軸有對稱性,也就是關於此軸的平移和拉伸的坐標變換不敏感。所以地球自轉軸,是地球自轉這種空間變換的一個特徵向量。Google的PageRank,就是對www連結關係的修正鄰接矩陣的,主要特徵向量的投影分量,給出了頁面平分。有什麼特性呢?AB和BA有相同的特徵向量----設AB的特徵向量為x,對應的特徵值為b,則有(AB)x =bx,將上式兩邊左乘矩陣B,得B(AB)x = (BA)(Bx) =b(Bx),故b為BA的特徵值,對應的特徵向量為Bx。反之亦然。
什麼是特徵矩陣和特徵值?我們用整體論來考慮,假設P(A)=(1,2,3)是A的3個特徵向量。那麼P(A^2)就是(1^2,2^2,3^2),P可以看作是一種算子。當然,算子的特性是需要用部分/細節詳細證明的。一旦證明,就可以作為整體的特徵。特徵值有什麼特性?說明矩陣可以分解成N維特徵向量的投影上面,這N個特徵值就是各個投影方向上的長度。由於n*n矩陣A可以投影在一個正交向量空間裡面,那麼任何N維特徵向量組成的矩陣都可以是線性投影變換矩陣,那麼I就是一個同用的線性變換投影矩陣。所以對於特徵值m,一定有是夠成了一個沒有線性無關向量的矩陣Aa=ma兩邊同乘以I得到Aa=maI,所以(A-mI)a=0有非0解,那麼|A-mI|=0(可以用反正法,如果這個行列式不是0,那麼N個向量線性無關,在N維空間中只能相交於原點,不可能有非0解)。所以可以推出一些很有用的性質,例如A=[1/2,1,1;0,1/3,1;0,0,1/5],那麼只要滿足|A-mI|=0的值就是特徵值,顯然特徵值數組立即可以得到(1/2,1/3,1/5)。一個n*n的矩陣A,秩=1,那麼最大線性無關組=1組,特徵向量=1個,任意n維非零向量都是A的特徵向量。特徵向量本身不是定死的,這就好比坐標系可以旋轉一樣。一旦特徵向量的各個方向確定了,那麼特徵值向量也就確定了。求特徵值的過程就是用特徵方程:|A-mE|=0,P(1/A)=1/P(A),可以證明。有什麼物理含義呢?一個N維線性無關的向量,去掉其中的一維,那麼就有至少兩個向量是線性相關的了,所以行列式=0。特徵矩陣有什麼作用?把矩陣變化為正定矩陣,也就是A=P^-1BP,這樣的變換,A是對角陣。
線性代數的研究,是把向量和矩陣作為一個整體,從部分的性質出發,推到出整體的性質,再由整體的性質得到各種應用和物理上的概念。當矩陣A是一個符號的時候,它的性質會和實數a有很多相似的地方。科學的定理看起來總是遞歸著的。再舉一個例子,高數的基本概念有微分,積分,倒數,那麼我立刻可以想到中值定理就應該有3個,形式上分別是微分,積分和倒數。

線性變換的缺點:線性變換PCA可以用來處理圖像。如2維的人像識別:
1.我們把圖像A看成矩陣,進一步看成線性變換矩陣,把這個訓練圖像的特徵矩陣求出來(假設取了n個能量最大的特徵向量)。用A乘以這個n個特徵向量,得到一個n維矢量a,也就是A在特徵空間的投影。
2.今後在識別的時候同一類的圖像(例如,來自同一個人的面部照片),認為是A的線性相關圖像,它乘以這個特徵向量,得到n個數字組成的一個矢量b,也就是B在特徵空間的投影。那麼a和b之間的距離就是我們判斷B是不是A的準則。
不過,PCA有天生的缺點,就是線性矢量的相關性考察有"平移無關性"優點的同時,也完全忽略了,2維圖形中,矢量分量之間的順序是有意義的,順序不同可以代表完全不同的信息。還有,就是圖像B必須是A的某種伸縮(由特徵向量空間決定的),才能被很好的投影到A的特徵向量空間裡面,如果B包含了A中的某種旋轉因素,那麼PCA可以徹底失效。所以實際應用中PCA的方法做圖像識別,識別率並不高,它要求圖像有某種嚴格的方向對齊和歸一化。所以PCA一般不用來做直接的特徵提取而是用來做特徵矩陣的降維。當然,降維的結果用於分類並不理想,我們可以進一步做最小二承法拉開類間距離的Fisher變換。但是Fisher變換會引入新的弱點,那就是對於訓練類別的數據變得更敏感了,分類效果上升的代價是通用性下降,當類型數量急劇膨脹的時候,分類效果的函數仍然是直線下降的----但是還是比直接PCA的分類效果好得多。
K-L變換是PCA的一個應用形式。假設圖像類型C有N個圖像,那麼把每個圖像拉直成一個向量,N個圖像的向量組成一個矩陣,求矩陣的特徵向量(列向量)。那麼用原來的N個圖像乘以這些列向量求出平均值,就是我們的特徵圖像。可以看到特徵圖像和原圖像有相似的地方,但是去掉了和拉伸,平移相關的一些形變信息。在得到了魯棒性的同時,犧牲了很多精確性。所以它比較適合特定範圍圖像的Verification工作,也就是判斷圖像P是不是屬於類型C。對比一下神經網絡:說白了把函數y=f(x)的映射,變成了[y]=[f(x)]的向量映射。輸入輸出的點(entry)是固定的。而真實的神經系統,並沒有明顯的內部處理和外部接口的區分。所以所有的神經網絡理論,名字上是神經網絡,實質上,差得很遠。

最後:什麼是"譜"(Spectrum)?我們知道音樂是一個動態的過程,但是樂譜卻是在紙上的,靜態的存在。對於數學分析工具,研究時變函數的工具,可以研究傅立葉變換對應的頻率譜;對於概率問題,雖然每次投色子的結果不一樣,但是可以求出概率分布的功率譜密度。數學作為一種形上學工具,研究的重點,就是這個變化世界當中那些不變的規律。

相關焦點

  • 矩陣:特徵向量(Eigenvector)
    矩陣的特徵方程式是:A * x = lamda * x這個方程可以看出什麼?矩陣實際可以看作一個變換,方程左邊就是把向量x變到另一個位置而已;右邊就是把向量x作了一個拉伸,拉伸量是lamda。那麼它的意義就很明顯了,表達了矩陣A的一個特性就是這個矩陣可以把向量x拉長(或縮短)lamda倍,僅此而已。任意給定一個矩陣A,並不是對所有的x它都能拉長(縮短)。
  • 矩陣的重要特性:特徵向量
    矩陣實際可以看作一個變換,方程左邊就是把向量x變到另一個位置而已;右邊就是把向量x作了一個拉伸,拉伸量是lamda。那麼它的意義就很明顯了,表達了矩陣A的一個特性就是這個矩陣可以把向量x拉長(或縮短)lamda倍,僅此而已。任意給定一個矩陣A,並不是對所有的x它都能拉長(縮短)。
  • 全面形象化的解釋散度和通量的物理意義
    散度,通量是高等數學和大學物理,電磁學的重要內容,難以理解,本篇用通俗的語言來解釋它的物理意義。散度,高斯定理非常重要,要學好一個太陽發出耀眼的光芒太陽在向外輻射能量,我們用向量A來表示能量的方向和大小d在太陽表面用一條封閉的曲線圈起來,那麼通過該曲線的能量就是所有向量A的疊加但是A的方向不一定在曲線的法線方向
  • 矩陣的瑰寶:深入挖掘特徵值和特徵向量,直觀地看抽象概念
    特徵值和特徵向量可能看起來是很抽象的概念,但它們在你周圍的世界中扮演著不可或缺的角色。因為一切都是由數據定義的,矩陣是處理數據的最佳工具,而它們又是矩陣中的瑰寶,可以揭示矩陣的性質。理解特徵值和特徵向量是什麼,如何推導它們,以及它們的應用,對于欣賞矩陣之美,以及更廣泛地理解數據和數學在世界中扮演的角色,都是不可或缺的。
  • 讓我們從全新的視野分析e^x導數所包含的物理意義
    但還它的神奇還不至這些,它的導數卻又是它的本身,這又引起了我們的好奇心,本篇我們將從全新的視野來討論e^t(你也可以寫成x)導數是其本身的物理含義e^t是數學唯一一個具有這種性質的函數,我們可以用一個物理模型來解釋這種優美的關係假設e^t是一個與時間有關的函數,數軸表示的是位移,也就是數軸描述了你所處的位置,當t=0時刻時,你的位置e^0=1,位置移動的速度
  • 向量的三種積:數量積、向量積、混合積
    向量?——向量及其線性運算中1.這屬于于一道應用題類型的,題目給出什麼條件,你按照條件設未知數,列方程就可以解決了。2.求單位向量和方向餘弦,按照公式做就可以。另外,單位向量的三個坐標值就是方向餘弦。3.
  • 綜合培優:向量與三角形綜合,解題關鍵是領會設問特點與圖形特徵
    摘要:三角函數和平面向量兩個模塊,天生就與三角形有扯不清的關係。因此,出題人也喜歡把三角函數、平面向量分別與三角形結合在一起出題。本文將講述平面向量與三角形的綜合題型(含高考真題),以了解和熟悉求解這類題型的有關思路、方法與技巧。
  • 流形中的向量(或者矢量)和向量場
    流形中的向量(或者矢量)和向量場1) 流形中的向量是線性代數中矢量空間的推廣,中間需要歐式空間過渡下,否則很抽象。所以一定要深刻理解矢量空間;2) 向量空間沒有點的概念,但是歐式空間中,點是最基本的概念。
  • 在△ABC中有向量GA+向量GB+向量GC=0向量能得出一個什麼樣的已知?
    向量GA+向量GB+向量GC=0向量,可以推出G點是重心在三角形ABC中,G是三角形內的一點,如果有向量GA+向量GB+向量GC=向量0,則該G點為三角形的重心。圖二過B點做BH向量等於GA向量,連接GH,根據向量加法的三角形法則,所以有向量BH+向量GB=向量GH,
  • 詞向量詳解:從word2vec、glove、ELMo到BERT
    各種詞向量的特點:One-hot:維度災難 and 語義鴻溝矩陣分解(LSA):利用全局語料特徵,但SVD求解計算複雜度大基於NNLM/RNNLM的詞向量:詞向量為副產物,存在效率不高等問題word2vec、fastText:優化效率高,但是基於局部語料glove:基於全局預料,結合了LSA和word2vec的優點elmo、GPT、bert:動態特徵從one-hot到word2vec
  • 教程| 從特徵分解到協方差矩陣:詳細剖析和實現PCA算法
    數學上,線性變換的特徵向量是一個非簡併的向量,其方向在該變換下不變。該向量在此變換下縮放的比例稱為特徵值。一個線性變換通常可以由其特徵值和特徵向量完全描述。如果我們將矩陣看作物理運動,那麼最重要的就是運動方向(特徵向量)和速度(特徵值)。因為物理運動只需要方向和速度就可以描述,同理矩陣也可以僅使用特徵向量和特徵值描述。
  • 向量代數與空間解析幾何終結篇:結束代數與幾何
    向量代數與空間解析幾何算是比較費腦的一章,因為圖形要動腦來想。所以對於空間想像力弱的同學,學習這一章就很痛苦。但是這也沒有辦法,這也是為了後來的多元積分做鋪墊,扛過去就好了。最後來對這一章的內容總結一下:本章知識點總結:1.向量代數(1)在利用空間解析幾何知識去解決問題時,若已知條件中沒有給定坐標系,應根據所求問題選取合適的坐標系,使解題過程更為簡潔。
  • 26、平面向量基本定理 及向量的坐標表示
    1.應用平面向量基本定理表示向量的實質是利用平行四邊形法則或三角形法則進行向量的加、減或數乘運算.2.用平面向量基本定理解決問題的一般思路是:先選擇一組基底,再通過向量的加、減、數乘以及向量平行的充要條件,把相關向量用這一組基底表示出來.
  • 北大學霸學長整理,高考數學平面向量糾錯專題,攻略,易學易懂
    平面向量在數學學習中有著重要作用,它廣泛用於平面幾何、圓錐曲線的求解中.掌握平面向量的數量積對於中學生的數學學習,可以起到舉一反三和觸類旁通的效果.但是我們在學習中經常會遇到一些問題,這些問題如果不注意就會影響對平面向量數量積的全面掌握。
  • 黃金分割的向量比定義
    黃金分割圖的說明黃金分割向量比及方程:黃金分割向量比定義及二次方程實分點:實分點C1向量圖實分點的向量說明:實分點的向量說明虛分點:我想黃金分割既然本身就是個美感的幾何定義,我拓展為向量幾何定義,也無不可。因為黃金分割只是個幾何定義,所以我把黃金分割比拓展為向量比,我做的向量幾何定義也不知道會不會有啥用處,就暫時權當娛樂吧,希望大家能感興趣。
  • 一文掌握心電向量投影原理
    一切從向量出發,向量原理和心電圖、冠狀動脈以及心臟解剖結合起來,從而進行合理的推理而做出診斷。我們知道,心電圖是經過二次投影后投影在導聯軸上形成的,這是心電圖中最難理解的地方,其實在高中數學裡,我們學過相關的投影原理。例如:在 x 軸方向上有一個線段 L 成夾角阿爾法,那 L 在 X 軸上這個投影是多少?
  • 這組必備、通用的向量基本技能,是有效解決向量應用問題的落足點
    基本問題說明 一般地,高中階段必備、通用的平面向量基本問題包括:① 向量基本運算有關問題向量運算包括向量加減運算、數乘運算、坐標運算等,是向量有關題目的最基本問題,幾乎每道題目以及其它向量基本問題均會涉及。
  • 把握兩個要點,助你輕鬆攻克高中數學三角形五心之向量結論的證明
    在高中階段,平面向量也常結合三角形五心出題,而熟練掌握三角形五心之向量結論及其推導是快速、準確地解答這類題的關鍵(尤其在選填題中)。具體地,三角形五心之向量結論為:我們先給出這些結論:若有ΔABC,O為其所在平面上一點, ∠A、∠B、∠C所對邊分別為a、b、c,則有:從表面看,三角形五心的性質各不相同,因此解題過程的描述差異較大。
  • 全面形象化的解釋環量與旋度的物理意義
    二維向量場中,環流量簡單來說,就是單位時間內環繞的某個曲線的量。三維向量場中的情況類似,但更為複雜一些,比如,這是一汪湖水,其中箭頭所指方向為水流方向,向量大小體現在水流的力量大小。而旋度是陣對矢量場中的點我們可以通過對區域中每個點的小區域旋度求和來近似線積分類似於通量,我們也可以把各個點環流量的強度加起來,得到環流量而通過不斷縮小封閉區域就可以得到環流量的強度,即旋度,很容易推出此點旋度我們可以將向量場上的線積分描述為相同向量場的旋度的二重積分
  • 數學建模|構建意義:狗或鴕鳥
    構建世界模型的一個關鍵部分是我們如何構建意義。只要看一些圖片或現實生活中的例子,孩子們就能很快理解「狗」這個詞的意思。他們直覺地構建更高層次的表徵——活著的、動物的、四條腿的、毛茸茸的。他們可以很容易地概括:一條腿缺失的狗仍然是一條狗,儘管只有三條腿。它們可以很快地知道哪些動物是狗,哪些不是狗。