機器學習筆記三初等列變換和常用矩陣

2021-01-08 itency

3.初等列變換和常用矩陣

3.1矩陣的初等列變換

1. 互換A的第i列和第j列

2. A的第i列乘以非零常數h

3. A的第i列乘以k加到第j列

3.2初等矩陣

1. 定義:對n階單位矩陣In做一次初等變換得到的矩陣稱為n階初等矩陣;

2. 三種初等矩陣:

1) 第1型:互換單位矩陣的兩行或兩列;

2) 第2型:用非零常數乘以單位矩陣的某行或者某列;

3) 第3型:單位矩陣的某行(列)的常數倍加到另一行(列)。

3. 初等矩陣的應用:

1) 定理:設A是m×n矩陣,如果對A做一次初等行變換得到B,相同的初等行變換作用到m階單位矩陣得到初等矩陣P,則B=PA;如果對A做一次初等列變換得到C,相同的初等列變換作用到n階單位矩陣得到初等矩陣Q,則C=AQ。

2) 推論:設A和B是m×n矩陣,A和B行等價的充分必要條件是B=Ps…P1A,

A和B列等價的充分必要條件是B=AQ1…Qs,A和B等價的充分必要條件是B=Ps…P1AQ1…Qs。

3.3可逆矩陣

1. 定義:設A是n階矩陣。如果存在n階矩陣B,使得AB=BA=In,則稱A是可逆矩陣,B是A的逆矩陣。

2. 性質:

a) 如果A是可逆矩陣,那麼A的逆矩陣是唯一的;

b) 如果A是可逆的,則A-1也是可逆的,並且(A-1)-1 = A;

c) 如果k是非零常數,A是可逆矩陣,那麼kA也是可逆矩陣,並且(KA)-1=K-1A-1;

d) 如果A和B是同階可逆矩陣,則AB也是可逆矩陣,並且(AB)-1=B-1A-1;

e) 如果A是可逆的,那麼AT也是可逆的,並且(A-1)T=(AT)-1;

f) 初等矩陣是可逆的,並且初等矩陣的逆矩陣仍然是初等矩陣;

g) 如果A是可逆矩陣,那麼r(A)=n;

h) 有限個同階初等矩陣的乘積是可逆矩陣;

i) 設A和B都是n階矩陣,如果AB是可逆的,那麼A和B都是可逆的;

j) 設A是n階矩陣,並且AX=β有解,AX=β的解唯一的充分必要條件是A是可逆矩陣,並且唯一解釋X=A-1β。齊次線性方程組AX=0有非零解的充分必要條件是A是不可逆的。

3. 可逆矩陣的求法:設A是n階矩陣

a) 構造n×(2n)矩陣(A,In);

b) 用初等行變換將(A,In)化為簡化階梯形(In,A-1);

c) 寫出A的逆矩陣A-1。

3.4分塊矩陣

1. 定理:如果A是m階可逆矩陣,D是n×t矩陣,那麼一下三個等式成立:。

3.5幾種常見的特殊矩陣

3.5.1對稱矩陣和反對稱矩陣

1. 定義:設A是方陣。如果AT=A,則A是對稱矩陣,如果AT=-A,則A是反對稱矩陣。

2. 命題:如果A是方陣,則A+AT是對稱矩陣,那麼A-AT是反對稱矩陣。

3. 命題:如果A是方陣,則A可以表示一個對稱矩陣和一個反對稱矩陣之和。

3.5.2對角矩陣

1. 定義:設A是方陣。如果A的對角線以外的元素都為零,則稱A是對角矩陣。

3.5.3數量矩陣

1. 定義:對角元都相等的對角矩陣是數量矩陣。

3.5.4上(下)三角矩陣

1. 定義:設A是方陣,如果A的對角元以下(上)的元素都為零,則稱A是上(下)三角矩陣。

2. 命題:上三角矩陣的轉置是下三角矩陣;下三角矩陣的轉置是上三角矩陣。

3. 定理:上(下)三角矩陣為可逆矩陣的充分必要條件是對角元都不為零;可逆上(下)三角矩陣的逆矩陣還是上(下)三角矩陣。

原文連結:https://www.itency.com/topic/show.do?id=583691

相關焦點

  • 其實矩陣並不陌生,完全可以從中學知識「遷移」
    上次寫過一篇如何學習「微積分」,把握住關鍵的概念,基本的思想和方法——極限。可參考線性代數主要有兩個重要的概念,行列式和矩陣,且兩個概念有些相似性;行列式本質上是一種運算,而矩陣是一個數組,可以被看成有多個行或列向量組成。有些教材從線性方程組入手,介紹消元法,n維向量空間,線性相關性以及矩陣,然後是矩陣的秩、線性方程組解的判定定理,解的結構。學完這部分內容,基本上可以認為線性方程組的問題似乎是完全解決了的。
  • 2021考研時間研招網-2021考研線性代數臨考衝刺:矩陣考題的主要...
    2021考研防疫通知各省匯總2021考研考場安排:北京各大研招院校考場安排公告匯總2021考研報名 碩士研究生考試網上報名公告匯總矩陣考題的主要解題方法:1)利用矩陣的基本性質進行計算和分析,包括分塊矩陣的乘法等性質2)利用逆矩陣定義、伴隨矩陣、初等變換、分塊矩陣方法求逆矩陣
  • 【暑期必備46個知識點:37】:伴隨矩陣
    ,叫做伴隨矩陣,為什麼稱它為伴隨,因為它是從原矩陣衍生出來的,可以說沒有原矩陣,就沒有伴隨矩陣。說到伴隨矩陣的定義,就不得不提到一個概念——代數餘子式,這個概念是從行列式這一章中提出來的,簡單來說是這樣:如果有一個元素aij,那麼這個元素的代數餘子式就是把i行j列去掉,剩下的部分,如果把這些代數餘子式按照一定的順序排列,形成矩陣,這個矩陣就是伴隨矩陣。接下來就是詳細定義:設Aij為元素aij的代數餘子式,定義A*=(Aji)為矩陣A的伴隨矩陣。
  • 一次有趣的Elasticsearch+矩陣變換聚合實踐
    04矩陣轉換嘗試過幾次不同的技術產品之後得出結論,單一的數據產品已有能力是無法滿足要求的,正可謂魚與熊掌不可兼得。所以必須改變思維,設計了一種矩陣變換的算法機制,結合Hive+ES實現,以下介紹這種技術實現方式。
  • 仿射變換和透視變換
    這種通過某個矩陣將圖像進行變換的方法通常稱為線性變換,也就是說利用了向量加法和標量乘法。【注】本文的變換僅僅針對二維矩陣,非針對三維矩陣的變換。透視變換使用warpPerspective函數如果將透視變換使用上面的仿射變換矩陣,補齊第三行,可以得到和仿射變換一樣的結果
  • 矩陣:特徵向量(Eigenvector)
    變換矩陣的所有特徵向量作為空間的基之所以重要,是因為在這些方向上變換矩陣可以拉伸向量而不必扭曲和旋轉它,使得計算大為簡單。所以特徵值固然重要,我們的終極目標卻是特徵向量。意思是如果你和你的朋友困在核裡面,你們不管是相加還是相乘都還會在核裡面,跑不出去。這就構成了一個子空間。值域同理。數學家證明了,V的維度一定等於它的任意一個變換矩陣的核的維度加上值域的維度。
  • 機器學習筆記——線性回歸及其兩種常用的優化方法
    回歸的目的是預測數值型的目標值,最直接的辦法是依據輸入寫出一個目標值的計算公式,比如要計算一個男生可以找到女朋友的概率:這意味著要綜合財產、長相、身高三個因素來判斷概率,其中財產也是最重要的因素。線性回歸回歸係數推導線性回歸(LR)可分為簡單一元線性回歸和多元線性回歸,也就是我們平時接觸的一次線性方程和多次線性方程,二者的主要區別也就是未知項的個數,為了便於理解,這裡主要利用一元線性回歸為例。
  • 矩陣的重要特性:特徵向量
    變換矩陣的所有特徵向量作為空間的基之所以重要,是因為在這些方向上變換矩陣可以拉伸向量而不必扭曲和旋轉它,使得計算大為簡單。所以特徵值固然重要,我們的終極目標卻是特徵向量。核:所有經過變換矩陣後變成了零向量的向量組成的集合,通常用Ker(A) 來表示。
  • 矩陣的瑰寶:深入挖掘特徵值和特徵向量,直觀地看抽象概念
    當一個向量乘以一個矩陣時,就相當於應用了一個線性變換。這就產生了沿著兩個向量拉伸(或擠壓)坐標系的效果。例如,矩陣[[3,1],[1,2]]將x軸沿向量[3,1]和將y軸沿向量[1,2]對齊。視覺上,我們可以看出點(0,1)實際上映射到了(1,2)這可以通過將它乘以矩陣來實現。假設有一個向量[-1,-1]乘上線性變換矩陣後,落在點[-4,-3]上。
  • 高中數學:全冊學習筆記,不能再全了
    數學不像地理之類的,不好做筆記,個人建議可以在上課的時候把自己不懂 的地方多加注意,標註筆記。高中數學知識量大,重點和難點也多,首當其衝肯定是函數,貫穿整個高中學習,高一學習基本初等函數,高二學習函數與導數,而且函數思想和方法都可以用在其他很多知識點上。函數佔高考數學30%左右的分數。
  • 線性變換(二)
    既然矩陣是我們研究線性變換的工具,我們自然希望替每個線性變換找到其形式最簡單的表示矩陣——當然,這實際上需要尋找對應的基。我們將馬上意識到,這種分解實際上是將整個空間分解成了一些線性變換的核空間的直和。
  • 費曼學習法、時間統計法、整體學習法、康奈爾筆記、思維導圖
    1、費曼學習法費曼說,要是不能把一個科學概念講得讓一個大學新生也能聽懂,那就說明我自己對這個概念也是一知半解的。有些學生把雷射原理的概念背得很熟,卻並不理解自己在背什麼。即使學了偏微分方程和概率統計,仍然不會運用「數學思維」看待身邊發生的事情。
  • 深度學習和機器學習的線性代數入門
    本文目錄引言機器學習ML和深度學習NN中的線性代數矩陣向量矩陣乘法轉置矩陣逆矩陣正交矩陣對角矩陣引言機器學習和深度學習建立在數學原理和概念之上,因此AI學習者需要了解基本數學原理。正確理解機器學習和深度學習的概念,掌握以下這些數學領域至關重要:機器學習和深度學習中的線性代數在機器學習中,很多情況下需要向量化處理,為此,掌握線性代數的知識至關重要。
  • 機器學習-話題模型
    每個段落包含單詞計數的矩陣(行代表唯一的單詞,列代表每個段落)是由一大段文本和奇異值分解(SVD)的數學技術構成的用於減少行數,同時保留列之間的相似性結構。然後通過取任意兩行形成的兩個矢量(或兩個矢量的歸一化之間的點積)之間的角度的餘弦來比較單詞。
  • 旋轉矩陣和歐拉角相互轉換及代碼實現(八十九)
    歐拉角旋轉矩陣和旋轉向量描述旋轉時非常不直觀,而歐拉角提供了一種比較直觀的表示法:將旋轉分解成3次繞不同軸的旋轉。由於分解方式有多種,歐拉角也存在不同的定義方法,大致可分為兩類: 有一個實部和三個虛部,如下所示:
  • Face Mesh,採用機器學習,打造人臉3D表面動態輪廓
    它採用機器學習(ML)來推斷3D表面幾何形狀,只需要單個攝像機輸入,而無需專用的深度傳感器。該解決方案利用輕量級的模型架構以及整個管線中的GPU加速,可提供對實時體驗至關重要的實時性能。此外,該解決方案與"人臉幾何"模塊捆綁在一起,該模塊彌合了人臉界標估計與有用的實時增強現實(AR)應用程式之間的差距。
  • 只需十四步:從零開始掌握Python機器學習(附資源)
    人們對吳恩達在 Coursera 上的機器學習課程內容往往好評如潮;然而,我的建議是瀏覽前一個學生在線記錄的課堂筆記。跳過特定於 Octave(一個類似於 Matlab 的與你 Python 學習無關的語言)的筆記。一定要明白這些都不是官方筆記,但是可以從它們中把握到吳恩達課程材料中相關的內容。
  • Transformer新型神經網絡在機器翻譯中的應用|公開課筆記
    從語言學的角度,它是表示詞與詞之間的關聯關係,像下圖所示,這是一個Self-Attention的示意,它這個it會和其他位置的詞發生關係,顏色越深的是說關係越緊密,從中圖中看到它很正確的關聯到了animal它實際指代的一個詞。從機器學習的角度,這個Attention是神經網絡隱層之間一個相似度的表示,什麼是Self-Attention?