線性代數的本質課程筆記(中)-點積和叉積

2021-03-01 小小挖掘機
昨天更新的線性代數的本質課程筆記受到了大家的廣泛好評,小編為了把後面的筆記儘早更新出來,所以本周的推薦系統系列暫不更新啦,希望大夥能理解哇!
1、點積

視頻地址:https://www.bilibili.com/video/av6299284?from=search&seid=12903800853888635103

點積的標準觀點

如果我們有兩個維數相同的向量,他們的點積就是對應位置的數相乘,然後再相加:



從投影的角度看,要求兩個向量v和w的點積,可以將向量w朝著過原點的向量v所在的直線進行投影,然後將w投影后的長度乘上向量v的長度(注意兩個向量的的夾角)。




當兩個向量的夾角小於90度時,點積後結果為正,如果兩個向量垂直,點積結果為0,如果兩個向量夾角大於90度,點積結果為負。

一個有趣的發現是,你把w投影到v上面,或者把v投影到w上面,結果是相同的。



但是你不覺得上面兩個過程是完全不同的嘛?接下來就直觀解釋一下。

假設我們有兩個長度完全相同的向量v和w,利用其對稱性,無論將v投影到w上還是將w投影到v上,結果都是一樣的:



如果我們把其中一個向量變為2倍,這種對稱性被破壞了。假設我們把w投影到v上,此時投影的長度沒變,但v的長度變為兩倍,因此是原來結果的兩倍。同樣如果把v投影到w上,投影長度變為2倍,但w長度沒變,所以結果也是原結果的兩倍。所以對於兩個向量的點積來說,無論選擇哪個向量進行投影,結果都是一樣的。




問題又來了,投影的思路和對位相乘再相加的思路,有什麼聯繫呢?聯想之前所學的線性變換過程,假設u是二維空間變換到一維空間後的基向量:



在第三講中我們已經知道,一個2*2的矩陣,[[a,c],[b,d]]其實代表了一種線性變換,它把原來的[1,0]變換到[a,b]的位置,把原先空間中的[0,1]變換到[c,d]的位置。那麼想要知道什麼樣的線性變換可以將二維空間中的基向量i和j變換到一維空間中的基向量u,只需要知道i和j變換後的位置即可。i和j變換後的位置,相當於對u所在的直線進行投影,利用對稱性,可以得到相應的結果,如下圖:




所以二維空間中的任意一個向量,通過上面的線性變換可以得到的一維向量。這個過程相當於對二維向量進行了投影。而根據矩陣乘法的計算方法,便可以將投影的計算方法和對位相乘再相加的方法聯繫起來。



上面的思路總結起來,就是無論何時你看到一個二維到一維的線性變換,那麼應用這個線性變換和與這個向量點乘在計算上等價:



上面是數學中「對偶性」的一個有趣實例。




8、叉積

視頻地址:
https://www.bilibili.com/video/av6341515/?spm_id_from=333.788.videocard.1
https://www.bilibili.com/video/av6371571/?spm_id_from=333.788.videocard.19

首先來看叉積的標準介紹。叉積是通過兩個三維向量生成一個新的向量,新的向量滿足下面三個條件:
1)垂直於這兩個向量所張成的平面
2)其長度等於這兩個向量所形成的四邊形的面積
3)其方向滿足右手定則



右手定則如下:



接下來看看叉積的具體計算,求行列式得到的是叉積後向量的長度,叉積得到的向量的坐標是下圖中的三個「某些數」。



接下來,深入理解叉積的含義,我們通過線性變換的眼光來看叉積。我們首先定義一個三維到一維的線性變換:



先回顧一下行列式的定義,三維空間中,3 * 3矩陣的行列式是三個向量所形成的平行六面體的有向體積(絕對值是體積,但需要根據方向判定其正負號),但這並非真正的叉積,但很接近:



假設我們把第一個向量變為變量,輸入一個向量(x,y,z),通過矩陣的行列式得到一個數,這個數就代表我們輸入的向量與v和w所組成的平行六面體的有向體積:



為什麼要這麼定義呢?首先要指出的是,上面的函數是線性的。所以我們就可以將上面的行列式過程表示成一個變換過程:



同時,當線性變換是從多維到一維時,線性變換過程又可以表示為點積的形式:




即p的結果是:



所以,問題其實變換為了,找到一個向量p,使得p和某個向量(x,y,z)求點積的結果,等於對應的三維方陣行列式的值(即(x,y,z)和向量u、v所組成的平行六面體的有向體積)。



左邊是一個點積,相當於把(x,y,z)向p上投影,然後投影長度和p的長度相乘:



而右邊平行六面體的體積,可以拆解為底面積 * 高。底面積可以認為是v和w所組成的平行四邊形的面積,高的話是(x,y,z)在垂直於v和w所張成的平面的方向上的分量的長度。



那麼:

點積 = (x,y,z)在p上投影的長度 * p的長度

體積 = v和w所組成的平行四邊形的面積 * (x,y,z)在垂直於v和w所張成的平面的方向上的分量的長度

根據二者相等,可以認為p的長度是v和w所組成的平行四邊形的面積、p的方向垂直於v和w所張成的平面。這樣我們的p就找到了,而p就是我們要找的叉積的結果,是不是很奇妙!

詳細的過程還是推薦大家看一下視頻,講的真的非常好!

相關焦點

  • 線性代數4——向量3(叉積)
    什麼是叉積  向量的叉積也叫外積、向量積、叉乘或矢量積。
  • 線性代數的本質 P10 點積與對偶性
    1.點積的計算兩個維度相同的向量,求他們的點積就是將相應坐標配對,求出每一對坐標的乘積,然後將結果相加
  • MIT線性代數(Linear Algebra)中文筆記
    說起麻省理工學院(MIT)的線性代數課,想必是看過的人一定會拍手叫好;沒看過的人也久仰大名。
  • 機器學習中的線性代數:關於常用操作的新手指南
    大數據文摘作品,轉載要求見文末編譯 | 沈愛群,徐凌霄,Aileen在學習深度學習的課程時,數學知識十分重要,而如果要挑選其中最相關的部分,「線性代數」首當其衝。向量乘法有兩種:點積(Dot product) 和 Hadamard乘積(Hadamard product)。兩個向量的點積是一個標量。向量的點積和矩陣的乘法是深度學習中最重要的操作之一。
  • 線性變換——線性代數的本質(二)
    只不過,在線性代數裡面,這個變換(函數)接收和輸出不再是數值,而是向量。那麼說到這裡,有人肯定會好奇了 ,既然是函數嘛,為什麼還要整一個「變換「的新名詞去包裝它呀,和真正的函數有什麼區別呀?經過線性代數的本質(一)基向量和線性組合的學習,我們知道只要改變標量的大小,就可以用基向量表示線性空間內的所有向量。因此,空間中每一個向量都可以表示成基向量與標量數乘後相加,也就是我們說的**「縮放向量再相加」**。
  • 【數學】向量點乘(內積)和叉乘(外積、向量積)概念及幾何意義
    向量是由n個實數組成的一個n行1列(n*1)或一個1行n列(1*n)的有序數組;向量的點乘,也叫向量的內積、數量積,對兩個向量執行點乘運算,就是對這兩個向量對應位一一相乘之後求和的操作,點乘的結果是一個標量。 點乘公式 對於向量a和向量b:
  • 人工智慧中的線性代數:如何理解並更好地應用它
    當然,學習線性代數道阻且長。數學,尤其是線性代數常與枯燥、複雜和毫無意義的事物聯繫起來。不過你還可以另闢蹊徑。閱讀完本文後,你將了解到:線性代數的本質;線性代數的真實應用場景;線性代數可用於 AI、ML 和數據科學的原因;學習線性代數最有效的方法。
  • 自考「線性代數(經管類)」課程介紹
    《線性代數》是經濟、管理類大學本科高等數學(二)自學考試課程,是一門基礎課程。線性代數這一數學工具在經濟科學、管理科學中有著廣泛的應用。著名的投入-產出模型就是以線性代數理論為基礎的。學好這門課程,對掌握現代經濟理論和解決實際問題會有很大幫助。
  • 向量中叉乘和點乘的原理敘述
    向量在高數,物理中應用非常廣泛,它的引入大大簡化了對物理量的描述和計算。本篇就簡單的來介紹下叉乘和點乘的數學原理。讓我們將這兩個箭頭的向量叉積定義為第三個箭頭表示為向量叉積的箭頭始終與兩個原點箭頭正好為90度,箭頭的長度表示的向量叉積總是完全等於由原來的兩個箭頭所構成的平行四邊形的面積由這兩個箭頭所構成的向量叉積,在許多科學和工程領域起著至關重要的作用
  • 86歲還在錄網課:MIT教授Gilbert Strang最新「線性代數」課程上線
    知乎上有個帖子專門討論 Gilbert Strang 的線性代數教材《Introduction to Linear Algebra》。有人表示,「Strang 的教材更加面向實際應用,難度適中,比較注重從實際問題中培養數學直覺,比較適合工程學科學生使用。」這點是相對於國內某些教材的通病來講的。
  • 向量的三種積:數量積、向量積、混合積
    ——向量及其線性運算中1.這屬于于一道應用題類型的,題目給出什麼條件,你按照條件設未知數,列方程就可以解決了。2.求單位向量和方向餘弦,按照公式做就可以。另外,單位向量的三個坐標值就是方向餘弦。3.這道題求B的坐標,然後給出一系列關於B的條件,那麼我們就設B的點坐標,然後按照題目給出的條件列式子,最終解出來就可以了。
  • 高三必修一知識點之向量的向量積
    向量的向量積  定義:兩個向量a和b的向量積(外積、叉積)是一個向量,記作a×b。若a、b不共線,則a×b的模是:∣a×b∣=|a|?|b|?sin〈a,b〉;a×b的方向是:垂直於a和b,且a、b和a×b按這個次序構成右手系。若a、b共線,則a×b=0。
  • 線性代數重要,選對教材更重要:同濟版《線性代數》引發激烈爭議
    如今已經畢業多年,沒想到最近在知乎上看到一篇文章《《線性代數》(同濟版)——教科書中的恥辱柱》,點讚量快突破五千。對於這篇文章,大家有時間可以讀一下,看看是不是同意作者的觀點。線性代數真的很重要,這是很多工程技術人員走上工作崗位的最大感受。好多算法都用到線性代數的知識,就比如現在非常熱門的深度學習,它的底層實現方式用到好多線性代數方面的知識。
  • 深度學習和機器學習的線性代數入門
    正確理解機器學習和深度學習的概念,掌握以下這些數學領域至關重要:機器學習和深度學習中的線性代數在機器學習中,很多情況下需要向量化處理,為此,掌握線性代數的知識至關重要。對於機器學習中典型的分類或回歸問題,通過最小化實際值與預測值差異進行處理,該過程就用到線性代數。通過線性代數可以處理大量數據,可以這麼說,「線性代數是數據科學的基本數學。」
  • ,用幾何思維理解矩陣的「逆」和向量的「點積」
    這是《機器學習中的數學基礎》系列的第5篇。人的一生總是需要許多「Aha!」(啊哈!)時刻,也就是讓你頓悟的時刻。面對線性代數中複雜的概念和公式,如果我們從幾何的角度去審視它們,就好比我們擁有了上帝視角,可以從大局上掌控它們,也可以更深入的理解它們的內涵。逆先來看矩陣的逆。
  • 微積分、線性代數、概率論,這裡有份超詳細的ML數學路線圖
    大多數機器學習都建立在三種數學理論的基礎上:線性代數、微積分和概率論,其中概率論的理論又基於線性代數和微積分。微積分微積分包括函數的微分和積分。神經網絡本質上是一個可微函數,因此微積分是訓練神經網絡的基本工具。首先,函數的導數定義如下在極限定理中,這也是點 x 處切線的斜率。
  • 線性代數應該這樣學一
    他講述了線性代數的本質,對線性空間、向量和矩陣做了直覺的描述。線性代數課程,無論你從行列式入手還是直接從矩陣入手,從一開始就充斥著莫名其妙。大部分工科學生,往往是在學習了一些後繼課程,如數值分析、數學規劃、矩陣論之後,才逐漸能夠理解和熟練運用線性代數。
  • 資源|用Python和NumPy學習《深度學習》中的線性代數基礎
    本文系巴黎高等師範學院在讀博士 Hadrien Jean 的一篇基礎學習博客,其目的是幫助初學者/高級初學者基於深度學習和機器學習來掌握線性代數的概念。掌握這些技能可以提高你理解和應用各種數據科學算法的能力。
  • 教程| Numpy的線性代數運算
    訪問flyai.club,一鍵創建你的人工智慧項目線性代數(如矩陣乘法、矩陣分解、行列式以及其他方陣數學等)是任何數組庫的重要組成部分。不像某些語言(如MATLAB),通過*對兩個二維數組相乘得到的是一個元素級的積,而不是一個矩陣點積。
  • 線性代數入門——矩陣乘積和乘冪在實際問題中的應用舉例
    系列簡介:這個系列文章講解線性代數的基礎內容,注重學習方法的培養。