解析數論入門:卷積(convolution)

2021-02-20 AoNT

沒錯,大家好,又是我,TMT,前幾天我們講完了關於積性函數的概念,今天我們來聊一聊數論裡面的卷積。

卷積,又稱Dirichlet卷積,英文名叫做convolution,卷積卷積,顧名思義,是通過「卷」的方法得到的積,那麼什麼叫做卷的方法呢?

我們先看看卷積在我們這篇文裡的定義。

如果有兩個算術函數f和g,定義*為卷積符號,則h=f*g滿足:

也就是說,把n通過很多方法分成因數的乘積,然後一個因數套到f,一個因數套到g,乘在一起,再求所有的和即可。很明顯,這個求和當中,和總共有d(n)項,也就是n的因數個數這麼多項。

很明顯,h也是一個算術函數,所以說,卷積表示兩個算術函數到一個新的算術函數的運算過程,既然如此,那麼可以類比和正常的整數間的乘法一樣(比如正整數相乘以後還是正整數)。

我們在這裡稍微講點基本抽象代數的內容,關於群(group)的知識:

我們會從最大的範圍出發,逐步深入。

假設有一個集合S。

首先我們定義二元運算。二元運算是什麼呢?我們假設從S中取任意元素a和b,對於運算法則*,如果a*b一直也是一個S中的元素,我們稱*為這個集合當中的二元運算(binary operation)。

譬如說,整數範圍內,加和乘就是典型的二元運算。

我們要講的第二個名詞叫做半群(semigroup),那麼什麼是半群呢?半群說的是,如果集合S內,對於二元運算*,滿足結合律:(a*b)*c=a*(b*c),我們就稱(S,*)構成一個半群。

很明顯,(Z,+)就是一個半群,因為有加法結合律。

那麼我們再深入一點,講一講什麼是么半群(monoid group),一個半群要得是么半群呢,要滿足以下條件:

存在單位元素(identity element)e,使得對於S中任意元素a滿足:a*e=e*a=a(這也間接證明了交換律)。

那麼我們稱這個半群(S,*)為么半群。

么半群再深一點,那就是群(group)本身了。那麼一個元素得是群,它首先得是一個么半群。其次,它若要是一個群的話,得滿足:

對於S中任意元素a,存在逆元(inverse element)b,使得a*b=e=b*a,那麼我們稱這個么半群(S,*)是一個群(group)。

那麼假設所有的算術函數構成的集合為A,那麼很明顯,(A,*(卷積符號))構成一個群,而其中的單位函數e(n)可以如此表示:

這樣任何算術函數卷積這個函數就是它們本身了。

這次先到這裡吧,困了,過兩天再更新。

大家再見。

相關焦點

  • 膨脹卷積學習筆記
    膨脹卷積 (Dilated Convolution,也稱為空洞卷積),與標準的卷積核不同,膨脹卷積在 kernel 中增加了一些空洞,從而可以擴大模型的感受野。1.膨脹卷積和標準卷積區別我們先通過下圖看一下膨脹卷積和標準卷積的區別,採用的卷積核都是 3×3 的。膨脹卷積有一個超參數 dilation rate,表示卷積核的間隔,標準卷積的 dilation rate 為 1,下圖的膨脹卷積 dilation rate 為 2。
  • DeepLabv1 & DeepLabv2 - 空洞卷積(語義分割)
    Convolution (Semantic Segmentation) 作者 |Sik-Ho Tsang 翻譯 | 史蒂芬·二狗子 校對 | 醬番梨 審核 | 詹森·李加薪 整理 | 立魚王 原文連結: https://towardsdatascience.com/review-deeplabv1-deeplabv2-atrous-convolution-semantic-segmentation-b51c5fbde92d
  • 從全卷積網絡到大型卷積核:深度學習的語義分割全指南
    全連接層作為卷積操作  將全連接層在VGG等Imagenet預訓練網絡中進行卷積操作後,由於CNN中的池化操作,特徵圖仍舊需要上採樣。解卷積層不使用簡單的雙線性插值,而是學習所進行的插值。解卷積層又被稱為上卷積(upconvolution)、完全卷積、轉置卷積或微步卷積(fractionally-stridedconvolution)。
  • 第一性原理之美:從平移對稱性導出卷積
    譯者 | 陳彩嫻校對 | 青 暮卷積的概念無處不在。它究竟有什麼特別之處呢?在本文中,作者從第一性原理中推導出卷積,並表明它自然地來自平移對稱性。在閱讀卷積的起源與歷史的過程中,讀者有機會了解到卷積概念和卷積運算符的發展歷史。
  • 從圖(Graph)到圖卷積(Graph Convolution):漫談圖神經網絡 (二)
    接著,我們將從頭開始為讀者介紹卷積的基本概念,以及其在物理模型中的涵義。最後,我們將詳細地介紹兩種不同的卷積操作,分別為空域卷積和時域卷積,與其對應的經典模型。讀者不需有任何信號處理方面的基礎,傅立葉變換等概念都會在本文中詳細介紹。
  • CNN 中千奇百怪的卷積方式大匯總
    多隱層非線性版本 這個版本是一個較大的改進,融合了 Network In Network 的增加隱層提升非線性表達的思想,於是有了這種先用 1*1 的卷積映射到隱空間,再在隱空間做卷積的結構。同時考慮了多尺度,在單層卷積層中用多個不同大小的卷積核來卷積,再把結果 concat 起來。
  • 深度| 理解深度學習中的卷積
    有太多的公開課、教程在反覆傳頌卷積神經網絡的好,卻都沒有講什麼是「卷積」,似乎默認所有讀者都有相關基礎。這篇外文既友好又深入,所以翻譯了過來。文章高級部分通過流體力學量子力學等解釋卷積的做法在我看來有點激進,這些領域恐怕比卷積更深奧,所以只需簡略看看即可。以下是正文:卷積現在可能是深度學習中最重要的概念。正是靠著卷積和卷積神經網絡,深度學習才超越了幾乎其他所有的機器學習手段。
  • 一文了解各種卷積結構原理及優劣
    反卷積(deconvolutions)這種叫法是不合適的,因為它不符合反卷積的概念。在深度學習中,反卷積確實存在,但是並不常用。實際上,反卷積是卷積操作的逆過程。你可以這麼理解這個過程,將某個圖像輸入到單個卷積層,取卷積層的輸出傳遞到一個黑盒子中,這個黑盒子輸出了原始圖像。那麼可以說,這個黑盒子完成了一個反卷積操作,也就是卷積操作的數學逆過程。
  • 變形卷積核、可分離卷積?卷積神經網絡中十大拍案叫絕的操作。
    一、卷積只能在同一組進行嗎?-- Group convolutionGroup convolution 分組卷積,最早在AlexNet中出現,由於當時的硬體資源有限,訓練AlexNet時卷積操作不能全部放在同一個GPU處理,因此作者把feature maps分給多個GPU分別進行處理,最後把多個GPU的結果進行融合。
  • 可分離卷積基本介紹
    空間可分離卷積(spatial separable convolutions) 深度可分離卷積(depthwise separable convolutions)   空間可分離卷積 從概念上講,這是兩者中較容易的一個,並說明了將一個卷積分成兩部分
  • 10分鐘弄懂深度學習3:卷積可以這麼理解
    機器學習、信號處理、通信、或自動控制相關專業的學生,無一例外都會碰到一個概念叫,卷積(convolution)。當前最熱門的人工智慧中的卷積神經網絡,也都含有卷積這個詞。那麼,卷積到底是個什麼東西呢?有什麼用呢?卷積的定義卷積實際上是兩個信號的操作。
  • PyTorch中的傅立葉卷積:通過FFT計算大核卷積的數學原理和代碼
    因此,我們不會為離散情況重新證明卷積定理。卷積定理在數學上,卷積定理可以表示為:連續傅立葉變換的位置(最大歸一化常數):換句話說,位置空間的卷積等價於頻率空間的直接乘法。這個想法是相當不直觀的,但證明卷積定理是驚人的容易對於連續的情況。
  • 學習數論入門教材推薦
    有些解析函數(像黎曼ζ函數)中包括了一些整數、質數的性質,透過這些函數也可以了解一些數論的問題。透過數論也可以建立實數和有理數之間的關係,並且用有理數來逼近實數(丟番圖逼近)。給大家推薦幾本數論入門的教程,有視頻課程頁有經典書籍微信公眾號《高等數學創新之路》關於數論的視頻課程山東大學數學博士根據權威教材錄製,有《Basic Analytic Number Theory》46節《Fourier Analysis and
  • AI入門:卷積神經網絡
    卷積(Convolution)首先,把圖片轉化成機器可以識別的樣子,把每一個像素點的色值用矩陣來表示。這裡為了方便說明,我們就簡化,用6*6像素來表示,且取只RGB圖片一層。然後,我們用一些過濾器跟輸入的圖片的矩陣做卷積。
  • 重新發現語義分割,一文簡述全卷積網絡
    首先,FCN 使用轉置卷積從編碼器階段逐漸擴展輸出特徵。轉置卷積可以將特徵重新分配至來源的像素位置。為了更好地理解轉置卷積,請參閱下文:https://towardsdatascience.com/up-sampling-with-transposed-convolution-9ae4f2df52d0要強調的重要一點是轉置卷積不會撤銷卷積操作。
  • 西湖名師論壇丨走進解析數論,去世界的無窮遠處:談孿生素數的歷史與現狀
    為了解決這兩個猜想數學家發展了一系列的工具,甚至整個一個數學分支,叫做解析數論。中國數學家對這兩個猜想都做出了非常傑出的工作,特別是潘承洞、陳景潤、張益唐等人。2013年,華人數學家張益唐為孿生素數猜想的解決作出了突破性的工作。
  • 初等數論入門方法
    初等數論入門方法作 者:Delta註:「入門方法」指的不是「如何入門初等數論的方法」,而是「入門級的初等數論所使用的方法」。為防止引起歧義在這裡提前說明。在文章開始之前先問一個問題:√2是整數嗎?答案無非兩種:是,或者不是。
  • 乾貨貼|CNN中常用的四種卷積
    卷積是深度學習中最重要的概念之一。深度學習超越了其他機器學習手段的核心就在於卷積和卷積神經網絡。這就很有必要了解常見的卷積: 一般卷積、 擴張卷積、轉置卷積、可分離卷積。