矩陣的特徵值分解的物理意義

2021-01-09 墨塵

矩陣的特徵值分解目的就是提取出一個矩陣最重要的特徵。

這其實是在平面上對一個軸進行的拉伸變換(如藍色的箭頭所示),在圖中,藍色的箭頭是一個最主要的變化方向(變化方向可能有不止一個),如果我們想要描述好一個變換,那我們就描述好這個變換主要的變化方向就好了。反過頭來看看之前特徵值分解的式子,分解得到的Σ矩陣是一個對角陣,裡面的特徵值是由大到小排列的,這些特徵值所對應的特徵向量就是描述這個矩陣變化方向(從主要的變化到次要的變化排列)。

當矩陣是高維的情況下,那麼這個矩陣就是高維空間下的一個線性變換,這個線性變化可能沒法通過圖片來表示,但是可以想像,這個變換也同樣有很多的變換方向,我們通過特徵值分解得到的前N個特徵向量,那麼就對應了這個矩陣最主要的N個變化方向。我們利用這前N個變化方向,就可以近似這個矩陣(變換)。也就是之前說的:提取這個矩陣最重要的特徵。總結一下,特徵值分解可以得到特徵值與特徵向量,特徵值表示的是這個特徵到底有多重要,而特徵向量表示這個特徵是什麼,可以將每一個特徵向量理解為一個線性的子空間,我們可以利用這些線性的子空間幹很多的事情。不過,特徵值分解也有很多的局限,比如說變換的矩陣必須是方陣。

相關焦點

  • 深入理解矩陣特徵值與特徵向量的物理意義
    顧名思義,特徵值和特徵向量表達了一個線性變換的特徵。在物理意義上,一個高維空間的線性變換可以想像是在對一個向量在各個方向上進行了不同程度的變換,而特徵向量之間是線性無關的,它們對應了最主要的變換方向,同時特徵值表達了相應的變換程度。
  • 矩陣的特徵值與特徵向量
    四、特徵分解(EVD)        特徵分解又稱譜分解,是將矩陣分解為由其特徵值和特徵向量表示的矩陣之積的方法(可類比於整數分解質因數)。只有可對角化矩陣才可以進行特徵分解。任意一個實對稱矩陣都可以對角化,故可分解為實特徵向量和實特徵值。        假設n×n的方陣A有n個線性無關的特徵向量
  • 矩陣特徵值與特徵向量的幾何意義
    即, 如果對於數 λ,存在一個 n 維非零列向量X(即 X∈Rn 且 X≠0),使得AX= λX則稱數 λ 為矩陣 A 的一個特徵值, X 稱為矩陣 A 對應於 λ 的特徵向量。在線性代數中,研究線性變換就是研究相應的矩陣 A,矩陣 A 的特徵向量和特徵值是線性變換研究的重要內容。
  • 強大的矩陣奇異值分解(SVD)及其應用
    在上篇文章中便是基於特徵值分解的一種解釋。特徵值和奇異值在大部分人的印象中,往往是停留在純粹的數學計算中。而且線性代數或者矩陣論裡面,也很少講任何跟特徵值與奇異值有關的應用背景。奇異值分解是一個有著很明顯的物理意義的一種方法,它可以將一個比較複雜的矩陣用更小更簡單的幾個子矩陣的相乘來表示,這些小矩陣描述的是矩陣的重要的特性。
  • 奇異值、奇異矩陣、SVD分解、正交矩陣
  • 特徵值和特徵向量的物理意義,振動離不開它
    長時間以來一直不了解矩陣的特徵值和特徵向量到底有何意義(估計很多兄弟有同樣感受)。知道它的數學公式,但卻找不出它的幾何含義,教科書裡沒有真正地把這一概念從各種角度實例化地進行講解,只是一天到晚地列公式玩理論——有個屁用啊。
  • 專題七:矩陣分解
    專題七:矩陣分解矩陣分解分為兩類:和分解與積分解.和分解是將一個矩陣分解為一些矩陣的和.積分解是將一個矩陣分解為一些矩陣的乘積.矩陣分解通常是利用標準形理論.下面例子中矩陣的構造都是基於標準形.其他分解例(華東師範大學,2013)證明:對於實可逆矩陣
  • 矩陣分解 (乘法篇)
    其實某種意義上, 鄭正交矩陣也是通過矩陣乘法來定義的。 如果一個矩陣和它的轉置矩陣的乘積為單位矩陣, 那麼這個矩陣就是正交矩陣。 LU分解的意義LU分解使得矩陣AX=b的求解分成了LU兩部分。 而三角矩陣的好處是可以很容易進行連續代入求解!
  • 特徵方程的物理意義
    可是,我們數一數上面有多少個如果——這個工作意義就是告訴大家,我們的想法是不是太理想——那我們放到更一般的情況,討論某一個非奇異陣。討論的時候我們換一個思路,上面的思考可能敘述太繁雜了,具體的說,求特徵向量的關係,就是把矩陣A所代表的空間,進行正交分解,使得A的向量集合可以表示為每個向量a在各個特徵向量上面的投影長度。
  • 矩陣的奇異值與特徵值有什麼相似之處與區別之處?
    奇異值分解正是對線性變換這三種效應的一個析構。A=,和是兩組正交單位向量,是對角陣,表示奇異值,它表示我們找到了和這樣兩組基,A矩陣的作用是將一個向量從這組正交基向量的空間旋轉到這組正交基向量空間,並對每個方向進行了一定的縮放,縮放因子就是各個奇異值。如果維度比大,則表示還進行了投影。可以說奇異值分解將一個矩陣原本混合在一起的三種作用效果,分解出來了。
  • 教程| 從特徵分解到協方差矩陣:詳細剖析和實現PCA算法
    該向量在此變換下縮放的比例稱為特徵值。一個線性變換通常可以由其特徵值和特徵向量完全描述。如果我們將矩陣看作物理運動,那麼最重要的就是運動方向(特徵向量)和速度(特徵值)。因為物理運動只需要方向和速度就可以描述,同理矩陣也可以僅使用特徵向量和特徵值描述。其實在線性代數中,矩陣就是一個由各種標量或變量構成的表格,它和 Excel 表格並沒有什麼本質上的區別。
  • 推薦系統 | 矩陣分解(SVD)原理和實戰
    三者均用於矩陣降維。其中:特徵分解可用於主成分分析。奇異值分解(SVD)和隱語義模型(LFM)可用於推薦系統中,將評分矩陣補全、降維。一.特徵分解1.1 特徵求解:特徵分解是指將矩陣分解為由其特徵值和特徵向量表示的矩陣之積的方法,我們首先回顧下特徵值和特徵向量的定義:
  • 奇異值分解及其應用
    特徵值和奇異值在大部分人的印象中,往往是停留在純粹的數學計算中。而且線性代數或者矩陣論裡面,也很少講任何跟特徵值與奇異值有關的應用背景。奇異值分解是一個有著很明顯的物理意義的一種方法,它可以將一個比較複雜的矩陣用更小更簡單的幾個子矩陣的相乘來表示,這些小矩陣描述的是矩陣的重要的特性。
  • 2013考研數學衝刺複習:矩陣的特徵值與特徵向量講解
    矩陣的特徵值與特徵向量問題是考研數學中一常考點,然而在最後衝刺這一階段,同學們在做真題和模擬題《考研數學絕對考場最後八套題》時對這一考點還存在一些疑惑,對此,文都考研數學的輔導老師特撰此文講解矩陣的特徵值與特徵向量問題,助同學們考研成功。
  • 另一個角度看矩陣分析
    按照求解線性方程組的思路,矩陣的逆、廣義逆、偽逆、矩陣的秩出現得就自然而然了。求解過程中需要應用到矩陣的滿秩分解,範數等知識。2. 矩陣計算的根本是什麼 當然,計算過程中,不是求解一個線性方程組的解就夠了的。就拿優化問題來說,解決問題的基本思路中要使用求導(求梯度)。
  • 奇異值分解和矩陣分解傻傻分不清楚?一文幫你理清兩者差異!
    在推薦系統的相關研究中,我們常常用到兩個相關概念:矩陣分解和奇異值分解。這兩個概念是同一種算法嗎?兩者到底有什麼差別?在本文中,作者梳理了兩種算法的概念、來源和內容,並進行了比較。通過對相關內容的梳理,作者提出,矩陣分解是推薦系統中最初使用的概念,奇異值分解是對該方法的進一步發展。在現在的討論中,一般將兩種方法統一成為奇異值分解。
  • 矩陣的瑰寶:深入挖掘特徵值和特徵向量,直觀地看抽象概念
    當特徵向量乘以這個矩陣時,特徵向量只是乘以特徵值,使這個向量的長度改變,而方向不會改變。特徵向量和特徵值很少是整數。由於特徵向量的性質,簡單地在相同或相反的方向縮放一個基向量就會得到另一個特徵向量。在三維空間中,這個矩陣描述了三個坐標軸——x、y和z的變換——對應於表示每個坐標所經歷的變換的三個坐標。這就是為什麼特徵向量和特徵值只對方陣定義,一個一般的n×n矩陣描述了n個軸的變換,每個軸對應一個有n個元素的坐標。為了找到一個矩陣的特徵向量,我們首先需要找到它的特徵值。
  • 線性代數筆記23——矩陣的對角化和方冪
    特徵值矩陣  假設A有n個線性無關的特徵向量x1,x2……xn,這些特徵向量按列組成矩陣S,S稱為特徵向量矩陣。
  • 通俗易懂的講解奇異值分解(SVD)和主成分分析(PCA)
    特徵分解首先,我們簡單回顧下特徵值和特徵向量的定義。在幾何學中,矩陣A的特徵向量是指一個經過與矩陣A變換後方向保持不變的向量(其中,假設特徵值均為實數)。而特徵值為在這個變化中特徵向量的比例因子。這是因為矩陣A與其特徵向量x的變換等同於矩陣A的每一行與特徵向量x的變換,從而矩陣之間的乘積可以表示為其特徵值與特徵向量的乘積。此時我們便能夠分離出矩陣的特徵值和特徵值向量,並將其放在兩個矩陣之中。
  • Love Plus 矩陣
    完全圖(complete graph)對於一個有n個頂點的完全圖(complete graph),除了第一個其他所有特徵值等於n。有n個頂點的圖形拉普拉斯算子的特徵值總是小於或等於n,這表示完整圖具有最大的可能特徵值。根據之前的帖子:增加邊提高特徵值。這個推斷是有意義的。當你增加儘可能多的邊時,你將獲得儘可能大的特徵值。