卷積的定義和物理意義

2021-02-24 電子工程專輯

卷積(Convolution是分析數學中一個重要的運算,很多具體實際應用中會用到這個概念,卷積的數學定義就是一個式子,背後有什麼物理背景意義呢?這裡做一個分析。

 

函數卷積的定義:

設:f(x),g(x)是R1上的兩個可積函數,作積分:

 

可以證明,關於幾乎所有的實數x,上述積分是存在的。這樣,隨著x的不同取值,這個積分就定義了一個新函數h(x),稱為函數f與g的卷積,記為h(x)=(f*g)(x)。

容易驗證,(f *g)(x) = (g * f)(x),並且(f * g)(x)仍為可積函數。這就是說,把卷積代替乘法,L1(R1)空間是一個代數,甚至是巴拿赫代數。

 

數列卷積定義:

如果卷積的變量是序列x(n)和h(n),則卷積的結果定義:

其中星號*表示卷積。當時序n=0時,序列h(-i)是h(i)的時序i取反的結果;時序取反使得h(i)以縱軸為中心翻轉180度,所以這種相乘後求和的計算法稱為卷積和,簡稱卷積。另外,n是使h(-i)位移的量,不同的n對應不同的卷積結果。

 

卷積的物理意義(定義的來源思路)

如果一個信號是一組歷史信號的組合,比如a(0),a(1),a(2).a(n).,其中a(i)是i時刻信號的量值,我們要計算在某一時刻n的信號的組合量值f(n), f(n)是a(0),a(1),a(2).a(n)的組合。

 

如果是類似f(n)=a(0)+a(1)+a(2)+.+a(n)的簡單線性組合就好辦了,但是信號會隨著時間的變化,不斷的在衰減的,也就是說我們只知道0時刻信號量值是a(0),但不知道a(0)變化到n時刻的時候的實際值,所以不能簡單用到上面的線性組合式子。

 

現在假設我們知道信號的衰減規律符合統一規律函數b(n),也就是說所有信號0時刻的衰減剩餘率都是是b(0),1時刻的衰減剩餘率是b(1).,如果我們求n時刻的信號組合量f(n),因為n時刻a(n)信號剛出來,它的衰減剩餘率應該為b(0)(理解一下),而 n-1時刻的信號衰減了一個時間周期了,它的衰減剩餘率是b(1).,寫成式子就是:

f(n)=a(0)b(n)+a(1)b(n-1)+a(2)b(n-2)+.+a(n)b(0)

     =sigma[a(i).b(n-i)],i 取值 from0 ton.

上面的式子,就是a(i).b(n-i)乘積形式的由來,作為數學推廣,不是一般性,可以把取值範圍推廣到負無窮到正無窮。

 

也就是說卷積的物理意義是一組值乘以他們相應的「權重」係數的和,以上是一個變量的數列的卷積物理意義解釋,不難推廣到一元函數的卷積意義,另外2元到多元函數都有相應的卷積定義,我們也不難想像多元函數的卷積意義。

 

圖像處理中的卷積舉例

在圖像識別/處理算法裡,一幅圖像可以看成一個二維函數,自變量是圖片象素的坐標(x,y),函數值是象素的顏色(灰度)取值(0~255),有的圖像處理方法是把象素的顏色(灰度)值變換為周圍圖像顏色(灰度)值的調和(周圍象素顏色(灰度)值乘以一個權重值求和,效果會使得圖像效果變得朦朧),這個過程也符合卷積的物理意義(一組值乘以他們相應的「權重」係數的和),所以這個處理也被稱為卷積。

長按二維碼識別關注


電子路上,結伴而行!

相關焦點

  • 如何通俗易懂地解釋卷積?
    教科書上通常會給出定義,給出很多性質,也會用實例和圖形進行解釋,但究竟為什麼要這麼設計,這麼計算,背後的意義是什麼,往往語焉不詳。作為一個學物理出身的人,一個公式倘若倘若給不出結合實際的直觀的通俗的解釋(也就是背後的「物理」意義),就覺得少了點什麼,覺得不是真的懂了。教科書上一般定義函數 f, g 的卷積 f * g(n) 如下:連續形式:
  • 10分鐘弄懂深度學習3:卷積可以這麼理解
    機器學習、信號處理、通信、或自動控制相關專業的學生,無一例外都會碰到一個概念叫,卷積(convolution)。當前最熱門的人工智慧中的卷積神經網絡,也都含有卷積這個詞。那麼,卷積到底是個什麼東西呢?有什麼用呢?卷積的定義卷積實際上是兩個信號的操作。
  • 從圖(Graph)到圖卷積(Graph Convolution):漫談圖神經網絡 (二)
    接著,我們將從頭開始為讀者介紹卷積的基本概念,以及其在物理模型中的涵義。最後,我們將詳細地介紹兩種不同的卷積操作,分別為空域卷積和時域卷積,與其對應的經典模型。讀者不需有任何信號處理方面的基礎,傅立葉變換等概念都會在本文中詳細介紹。
  • 自相關、卷積與匹配濾波
    自相關、卷積與匹配濾波1、引言最近被相關、卷積和匹配濾波弄得暈頭轉向
  • 第一性原理之美:從平移對稱性導出卷積
    譯者 | 陳彩嫻校對 | 青 暮卷積的概念無處不在。它究竟有什麼特別之處呢?在本文中,作者從第一性原理中推導出卷積,並表明它自然地來自平移對稱性。在閱讀卷積的起源與歷史的過程中,讀者有機會了解到卷積概念和卷積運算符的發展歷史。
  • 用FFT和IFFT實現卷積
    首先我們來理解什麼是卷積,卷積分為連續卷積和離散卷積,連續卷積是積分,離散卷積是求和。首先我們來看一個列子:比如說你的老闆命令你幹活,你卻到樓下打撞球去了,後來被老闆發現,他非常氣憤,扇了你一巴掌(注意,這就是輸入信號),於是你的臉上會漸漸地(賤賤地)鼓起來一個包,你的臉就是一個系統,而鼓起來的包就是你的臉對巴掌的響應,好,這樣就和信號系統建立起來意義對應的聯繫。
  • 人工智慧之卷積神經網絡(CNN)
    ^_^本文引用地址:http://www.eepw.com.cn/article/201806/381807.htm  20世紀60年代,Hubel和Wiesel在研究貓腦皮層中用於局部敏感和方向選擇的神經元時發現其獨特的網絡結構可以有效地降低反饋神經網絡的複雜性,繼而提出了卷積神經網絡CNN(Convolutional Neural Networks)。
  • 解析數論入門:卷積(convolution)
    卷積,又稱Dirichlet卷積,英文名叫做convolution,卷積卷積,顧名思義,是通過「卷」的方法得到的積,那麼什麼叫做卷的方法呢?我們先看看卷積在我們這篇文裡的定義。如果有兩個算術函數f和g,定義*為卷積符號,則h=f*g滿足:
  • 中考物理知識點:密度的定義和應用
    中考物理知識點:密度的定義和應用   一密度的引入:   ⑴實驗操作及數據:用天平測量體積不同的同種物質的質量和體積相同的不同物質的質   量,把數據填入表格。   ⑵結論:同種物質,的質量與體積成正比,質量與體積的比值相同,不同物質,質量和體積的比值不同。
  • 一文了解各種卷積結構原理及優劣
    卷積首先,定義下卷積層的結構參數。△ 卷積核為3、步幅為1和帶有邊界擴充的二維卷積結構卷積核大小(Kernel Size):定義了卷積操作的感受野。在二維卷積中,通常設置為3,即卷積核大小為3×3。步幅(Stride):定義了卷積核遍歷圖像時的步幅大小。其默認值通常設置為1,也可將步幅設置為2後對圖像進行下採樣,這種方式與最大池化類似。邊界擴充(Padding):定義了網絡層處理樣本邊界的方式。當卷積核大於1且不進行邊界擴充,輸出尺寸將相應縮小;當卷積核以標準方式進行邊界擴充,則輸出數據的空間尺寸將與輸入相等。
  • 中考物理知識點:電功率的定義和公式
    中考物理知識點:電功率的定義和公式   ①物理意義:表示電流做功快慢的物理量(電功率等於電功與時間之比)。符號是P   ②單位:國際單位:瓦(W)常用單位:KW換算關係:1KW=10^3W   ③計算公式:P=w/t,公式變形:W=P*t,t=w/p。
  • 圓周卷積與直接卷積
    我們都知道在模擬域對於連續信號,時域卷積等於頻域乘積,時域乘積等於頻域卷積,因此對於在時域求兩個信號的卷積,我們可以先對兩個信號做FFT後,然後做乘法,然後求IFFT得到信號在時域的卷積結果。但在數字域對於離散信號是沒有這個性質的,兩個序列的直接卷積不能通過兩個序列的FFT的乘積然後做IFFT得到時域的卷積結果,matlab仿真如下,直接卷積matab代碼,需要對兩個序列分別做7點FFT,然後求IFFT的結果才與時域卷積結果一致。
  • 「相關」與「卷積」的理解和使用
    信號的卷積卷積是兩個時間序列之間一種激勵和響應得出結果的關係。 卷積是可交換,可結合和可分配的。相關積分和卷積積分值有限,都要求二個信號中至少有一個是能量有限信號。當二個信號都為功率信號時,積分結果是無限的,需引入時間平均。
  • 「卷積」其實沒那麼難以理解
    卷積是怎麼回事?卷積定理又是什麼?如果你對卷積公式不甚了解,亦或是想對其有更深的認知,那麼本文便是一份優秀的科普材料。1930年狄拉克出版了他的量子力學著作著作《量子力學原理》,這是物理史上重要的裡程碑,至今仍是量子力學的經典教材。
  • 機器視角:長文揭秘圖像處理和卷積神經網絡架構
    上面我們所做的也恰恰是一個卷積網絡所做的。我們可以採用輸入圖像,定義權重矩陣,並且輸入被卷積以從圖像中提取特殊特徵而無需損失其有關空間安排的信息。這個方法的另一個重大好處是它可以減少圖像的參數數量。正如所見,卷積圖像相比於原始圖像有更少的像素。3.定義一個卷積神經網絡我們需要三個基本的元素來定義一個基本的卷積網絡1.
  • 手把手解釋實現頻譜圖卷積
    在這篇文章中,我主要描述了Bruna等人在2014年,ICLR 2014的工作中,他們將頻譜分析和卷積神經網絡(ConvNets)相結合,產生了頻譜圖卷積網絡,可以有監督的方式進行訓練,用於圖的分類任務中。儘管與空間圖卷積方法相比,頻譜圖卷積目前還不太常用,但了解頻譜圖卷積的工作原理仍有助於避免產生和其他方法同樣的問題。
  • 概率密度的卷積公式:一維&二維
    求隨機變量的概率密度有兩種方法,一是定義法先求分布函數再求導,二是概率密度卷積公式(效率更高),本文介紹了一維、二維概率密度的卷積公式,兩種方法的異同請讀者自行品味
  • 深入理解卷積網絡的卷積
    例如,時間序列數據和圖像數據可以看作是一個二維像素網格。歷史卷積神經網絡最初是由福島核電站在1980年引入的,當時名為Neocognitron。它的靈感來自於Hubel和Weisel提出的神經系統的層次模型。但由於其複雜的無監督學習算法,即無監督學習,該模型並不受歡迎。
  • 深度| 理解深度學習中的卷積
    但卷積為什麼如此強大?它的原理是什麼?在這篇博客中我將講解卷積及相關概念,幫助你徹底地理解它。網絡上已經有不少博客講解卷積和深度學習中的卷積,但我發現它們都一上來就加入了太多不必要的數學細節,艱深晦澀,不利於理解主旨。這篇博客雖然也有很多數學細節,但我會以可視化的方式一步步展示它們,確保每個人都可以理解。文章第一部分旨在幫助讀者理解卷積的概念和深度學習中的卷積網絡。
  • 總結 | 「卷積」其實沒那麼難以理解
    1930年狄拉克出版了他的量子力學著作著作《量子力學原理》,這是物理史上重要的裡程碑,至今仍是量子力學的經典教材。δ函數有很多用處,本身蘊藏的數學和物理含義很值得去挖掘,今天我們就先說一下它在工程中一般幹什麼用。