用幾何思維幫你理解基、線性組合與向量空間

2021-01-10 決策不拍頭

這是《機器學習中的數學基礎》系列的第2篇。

鋪墊在介紹各種「高大上」的名詞之前,我們先來看下向量的幾何意義。現在有一個2維向量w=(2,1),把它畫在坐標軸上就是這個樣子的:

我們可以把它看成是從原點(0,0)出發,終點是(2,1)的一段路徑或者一個箭頭,也可以把向量w抽象為1個點(因為所有的向量都是從原點出發,可以忽略掉路徑),這個點的坐標(2,1)就是它的向量坐標。

接下來我們來看向量加法,用公式表示是這樣子的:

就是把兩個向量對應的元素相加,很容易理解,對吧。那向量加法的幾何意義是什麼呢?假設另一個向量y=(1,-2),我們把w+y畫在坐標軸上:

這次我們用動態的觀點來看w+y:首先我們進行向量w的運動,從O點跑到A點;再進行向量y的運動,從A點跑到D點(我們把向量y從OB平移到了AD),最後向量OD就是w+y的結果了。

思路是有了,那到底該怎麼計算呢?我們把w和y的運動分解成水平方向的運動和垂直方向的運動。那從水平方向上看,w運動了2,y運動了1,一共運動了2+1=3;從垂直方向看,w運動了1,y運動了-2,一共運動了1-2=-1.所以D點的坐標就是(3,-1)。

加法搞定之後,我們再來看乘法。確切地說,是數乘。啥意思呢?就是向量和一個數相乘。我們還是以向量w為例,來看看2w和1/2w的幾何含義:

可以看到,2w就是沿著w的方向把它拉伸了2倍,而1/2w就是沿著w的方向把它壓縮了一半。

精彩的部分來了有了上面長長的鋪墊,神奇的一幕馬上就要發生了!我將用一個公式來理清基、線性組合和向量空間這三個概念。

在此之前,讓我們先平復一下心情,再回過頭來看看向量w(2,1):

現在,需要一個思維跳躍,我們把w也看成是兩個向量的和。是哪兩個向量的和呢?從上圖中可以看出,w可以被認為先水平運動2個單位,再垂直運動1個單位。所以w是水平方向的向量2i和垂直方向的向量j的和。其中,向量i=(1,0),向量j=(0,1)。因此,w可以表示為:

我們把i,j就叫做構成平面的一組基(可以看出,任意向量都可以由i和j構造)。而2i+j就叫做i和j的一種線性組合。為了更加一般化,我們把i和j的係數分別設為a和b(a、b可取任意值),那麼ai+bj就被叫做i和j的線性組合。從幾何上說,ai+bj所張成(形成)的空間就叫做向量空間,也叫做線性空間。對於二維向量來說,所形成的向量空間就是整個平面。

以上就是全部內容,你都看明白了嗎?有不清楚的地方可以及時評論哦。

相關焦點

  • ,用幾何思維理解矩陣的「逆」和向量的「點積」
    時刻,也就是讓你頓悟的時刻。面對線性代數中複雜的概念和公式,如果我們從幾何的角度去審視它們,就好比我們擁有了上帝視角,可以從大局上掌控它們,也可以更深入的理解它們的內涵。逆先來看矩陣的逆。這裡我們不會引入複雜的公式去介紹如何求矩陣的逆,我們要做的是,先深入理解它,然後再去計算它。
  • 用直觀的方法理解抽象的概念——擴張空間(線性代數)
    除了一個出色的、高效的生物學特徵外,它還說明了線性代數中的一個重要概念:擴張空間。為了直觀地解釋擴張空間,我將給你一個類比,就像我解釋線性相關一樣。這是用色彩組合來解釋線性代數概念的第二部分。第一部分是關於線性相關的,你可以在這裡讀到用直觀的方法理解抽象的概念——線性相關(線性代數)。紅色和黃色的跨度想像你是一個畫家,面前有一張空白畫布的。
  • 用直觀的方法理解抽象的概念——線性相關(線性代數)
    在線性代數的課程中,你會被各種定義轟炸。線性代數教科書簡直就是一本充滿各種術語的字典,這些術語晦澀難懂,難以理解。學生們在考試前,只有幾個月的時間來理解特徵值,特徵向量,厄米特矩等。令人沮喪的是,老師通常不會在課堂上教矩陣的空間感、或者解釋方程的深刻含義。
  • [PRML]線性回歸模型--線性基函數模型
    這通常稱為線性回歸(linear regression)。多項式基函數的一個限制是他們是輸入變量的全局函數,所以輸入空間的一個區域變化會影響其他區域。這個可以通過將輸入空間劃分成不同的區域並在每個區域擬合一個不同的多項式來解決,這會導致樣條函數(spline functions)。
  • 空間?向量?——向量及其線性運算
    小編在上一篇文章中已經說過,接下來就開始向量代數與空間解析幾何的內容了。可能有些大學上學期學到微分方程前就不學了,可能是學到向量代數與空間解析幾何不學了的。所以上學期學過微分方程的同學,現在也可以和小編從現在開始複習。
  • 標準正交基應用於通信原理課程的教學研究
    關鍵詞:向量空間;標準正交基;信號空間;調製解調;MATLAB 2009年1月,教育部高教司設立了「利用信息技術工具改造課程」項目,「用MATLAB和建模實踐改造工科線性代數課程」是其中一個子項目。而「需求牽引」和「技術推動」正是此項目改革的動力。是的,後續課程的需求是什麼?採用MATLAB軟體如何增強教學?這是當前線性代數課程教育者必須思考的。
  • 高等代數| 3.1 向量組的線性相關與無關問題
    摘要:本節我們主要介紹線性方程組的線性相關與線性無關的問題,讓大家了解如何使用最基礎的定義去解決這一類問題.定義1.的任意一個列向量都是這些向量的線性組合即可可由該向量組線性表示不能由該向量線性表示,討論下面向量組的線性相關性.
  • 線性代數的本質:特徵向量與特徵值
    有一些矩陣並沒有對應的特徵值,比如將空間旋轉90度的線性變換所對應的矩陣,空間中所有的向量在經過其變換後都偏離了原來的直線,旋轉了90度,因此其沒有特徵向量。最後,講一下特徵基的概念。講到基,又得搬出坐標系的概念了。假設我們坐標系的基是[1,0]和[0,1],如果基向量都是特徵向量,那麼會發生什麼呢?
  • 教孩子寫遊戲:3D遊戲編程的必備數學知識,理解三維空間向量
    市面上有太多的3D遊戲引擎了,這些3D引擎把遊戲編程中比較複雜的工作都幫我們做了,只是把一些比較簡單的工作留給了我們。這樣的話,只需要點幾下滑鼠,添加一些遊戲素材,像本課程這樣的3D遊戲示例一下子就能生成很多個。但是,真的用遊戲引擎的話,不管是新手還是孩子,一點有用的東西都學不到。3D遊戲引擎,是給專業人士開發超大型3D遊戲用的,不是給新手們「娛樂」用的。
  • 線性變換終於來了冪等變換
    距離考研還有:50天揚哥已陪你堅持:42天裴禮文今天總結:第三冊(第3天,共3天)揚哥"2018數學分析高等代數考研輔導報名
  • 理解矩陣背後的現實意義
    對於其中任何一個連續函數,根據魏爾斯特拉斯定理,一定可以找到最高次項不大於n的多項式函數,使之與該連續函數的差為0,也就是說,完全相等。這樣就把問題歸結為L1了。後面就不用再重複了。所以說,向量是很厲害的,只要你找到合適的基,用向量可以表示線性空間裡任何一個對象。
  • 人工智慧中的線性代數:如何理解並更好地應用它
    一些你需要知道的線性代數理論線性代數研究的是向量空間以及將一個向量空間映射到另一個向量空間的函數。我們主要考慮線性函數(對於任何常數α和β以及向量 x 和 y,滿足關係 f (α · x + β · y) = α · f (x) + β · f (y)。
  • 線性回歸中+t值的含義_線性回歸 y截距p值的計算 - CSDN
    線性回歸模型的基本特性就是:模型是參數的線性函數。最簡單的線性回歸模型當然是模型是參數的線性函數的同時,也是輸入變量的線性函數,或者叫做線性組合。一般線性回歸對於一個一般的線性模型而言,其目標就是要建立輸入變量和輸出變量之間的回歸模型。該模型是既是參數的線性組合,同時也是輸入變量的線性組合。
  • 矩陣的重要特性:特徵向量
    我們也可以說,一個變換矩陣的所有特徵向量組成了這個變換矩陣的一組基。所謂基可以理解為坐標系的軸,我們平常用到的大多是直角坐標系,在線形代數中可以把這個坐標系扭曲、拉伸、旋轉,稱為基的變換。我們可以按我們的需求去設定基,但是基的軸之間必須是線形無關的,也就是保證坐標系的不同軸不要指向同一個方向或可以被別的軸組合而成,否則的話,原來的空間就「撐」不起來了。
  • 明白了為什麼學習向量數量積,再來理解它的定義
    向量數量積定義當我們學習到了向量數量積的定義這時我們心中可能會有疑問,為什麼要學數量積?如此定義數量積的意義是什麼?其實數學中所有概念的定義都不是憑空而來的,都是為了解決一類問題而定義的,這些概念和定義是有實際意義的。
  • 矩陣:特徵向量(Eigenvector)
    我們平常用到的大多是直角坐標系,在線形代數中可以把這個坐標系扭曲、拉伸、旋轉,稱為基的變換。我們可以按我們的需求去設定基,但是基的軸之間必須是線形無關的,也就是保證坐標系的不同軸不要指向同一個方向或可以被別的軸組合而成,否則的話原來的空間就「撐」不起來了。
  • 高等代數之線性變換
    昨天我們已經講到了不變子空間的定義,以及我們為什麼要去引入不變子空間的定義。今天我們來看一下不變子空間與線性變換的矩陣化簡之間的一個關係。我們先回顧一下不變子空間的定義:接下來我們來看一下線性變換在不變子空間W的一組基擴充為整個線性空間的基之後,在這一組基之下的矩陣會變成什麼樣子的。我們可以發現這個時候線性變換在這組基之下的矩陣已經變得相對簡單了,出現了分塊的0矩陣,如果可以出現更多的0那麼這個矩陣將會變得更加的簡單。
  • 如何理解傅立葉級數、傅立葉變換公式?
    關於函數向量,關於函數向量的點積,更嚴格的討論可以參考無限維的希爾伯特空間。4.3  是線性組合雖然比較倉促,讓我們先接受  是函數向量,那麼它們的線性組合得到的也是函數向量: 說明了,這兩個函數向量正交、線性無關,是正交基。如果寫成這樣:
  • 機器學習 線性代數基礎 | 1.4 矩陣乘向量的新視角:變換基底
    依託前面的知識我們可以對其進行這樣的描述:從列的角度來看,矩陣A與向量x的乘法,實質上是對矩陣A的各個列向量進行線性組合的過程,每個列向量的組合係數就是向量x的各個對應成分。最後不怕囉嗦,我們再總結一下:一個矩陣和一個列向量相乘的過程可以理解成對位於原矩陣各列的列向量重新進行線性組合的過程,而在線性組合的運算過程中,結果中的各個係數就是參與乘法運算的列向量中所對應的各個成分。這是從列的角度去看待矩陣與向量乘法的一種新的視角。為了更方便的說明原理,我們依舊使用二階方陣
  • [PRML]線性分類模型--概率判別模型
    在討論線性回歸模型,其中一個基函數通常設置為一個常數,即事實上,它們可以增加重疊的程度,或者在原始觀測空間中不存在的地方創造重疊。但適當的非線性選擇可以使後驗概率建模過程更容易。這種固定的基函數模型有重要的限制,這些將在後面的文章中通過允許基函數本身適應數據來解決。