如何用張量分解加速深層神經網絡?(附代碼)

2020-12-24 雷鋒網

本文為雷鋒字幕組編譯的技術博客,原標題Accelerating deep neural networks with tensor decompositions,作者為Jacob。

翻譯 |  林立宏    整理 |  凡江

背景

在這篇文章中,我將介紹幾種低秩張量分解方法,用於在現有的深度學習模型中進行分層並使其更緊湊。我也將分享PyTorch代碼,它使用Tensorly來進行在卷積層上的CP分解和Tucker分解。

儘管希望大部分帖子都是可以獨立閱讀的,關於張量分解的回顧可以在這裡找到。Tensorly的作者也寫了於Tensor的基礎內容非常棒的notebook。這幫助我很好的開始學習這塊內容,建議你閱讀一下這些內容。

加上裁剪(pruning),張量分解是加快現有深度神經網絡的實用工具,我希望這篇文章能讓這些內容更加容易理解。

這些方法需要將一個層分解成幾個更小的層。儘管在分解後會有更多的層,但是浮點運算次數和權重的總數會變小。一些報告的結果是整個網絡的x8倍的速度提升(不針對像imagenet這樣的大型任務),或者imagenet中的特定層中x4倍的提升。我的結論是用這些分解方式,我能夠獲得x2到x4倍的加速,這取決於我願意犧牲多少的精度。

在這篇文章中我介紹了一些稱為裁剪(pruning)的技術以減少模型中的參數數量。在一個數據集上正向傳遞(有時是反向傳遞)裁剪(pruning),然後根據網絡中激活的一些標準對神經元進行排序。

完全不同的是,張量分解的辦法只用到層的權重,假設網絡層是參數化的,它的權重能夠用一個矩陣或者是一個低秩的張量來表示。這意味這個它們在參數化的網絡下效果最佳。像VGG神經網絡設計為完全參數化的。另外一個關於參數化模型的例子是使用更少的類別對網絡進行微調以實現更簡單的任務。

和裁剪(pruning)相似,分解之後通過模型需要微調來恢復準確性。

在我們會深入討論細節之前,最後一件要說明的事是,雖然這些方法是實用的,並給出了很好的結果,但它們有一些缺點:

目前還要試圖解決這些問題,而且它仍然是一個活躍的研究領域。


截斷SVD用於分解完全連接的層

第一份我能找到的使用這個來加速深度神經網絡的是在Fast-RNN論文中,Ross Girshick使用它來加速用於檢測的全連接層。代碼可以在這裡找到:pyfaster-rcnn implementation。


SVD概況

奇異值分解使我們能夠分解任何具有n行和m列的矩陣A:

S是一個對角矩陣,其對角線上有非負值(奇異值),並且通常被構造成奇異值按降序排列的。U和V是正交矩陣:

如果我們取最大的奇異值並將其餘的歸零,我們得到A的近似值:

具有作為Frobenius範數最接近於A的秩t矩陣的性質,所以如果t足夠大,是A的良好近似。


在全連接層上的SVD

一個全連接層通常是做了矩陣乘法,輸入一個矩陣A然後增加一個偏差b:

我們可以取A的SVD,只保留第一個奇異值。

這不是一個完全連接的層,而是指導我們如何實現它作為兩個較小的:

權重總數從nxm下降到t(n + m)。


在卷積層上張量分解

二維卷積層是一個多維矩陣(後面用-張量),有四個維度:

cols x rows x input_channels x output_channels.

遵循SVD的例子,我們想要以某種方式將張量分解成幾個更小的張量。卷積層轉換為幾個較小近似的卷積層。

為此,我們將使用兩種流行的(至少在Tensor算法的世界中)張量分解:CP分解和Tucker分解(也稱為高階SVD或其他名稱)。


1412.6553 使用微調CP分解加速卷積神經網絡

1412.6553 Speeding-up Convolutional Neural Networks Using Fine-tuned CP-Decomposition 這篇論文說明了如果CP分解能夠用於卷積層的加速,正如我們會看到的,這將卷積層納入類似行動網路的東西。

他們使用它來加速網絡的速度,而不會明顯降低精度。在我自己的實驗中,我可以使用這個在基於VGG16的網絡上獲得x2加速,而不會降低準確度。

我使用這種方法的經驗是,需要非常仔細地選擇學習率,微調以使其工作,學習率通常應該非常小(大約)。

一個秩R矩陣可以被視為R秩和1矩陣的和,每個秩1矩陣是一個列向量乘以一個行向量:

SVD為我們提供了使用SVD中的U和V列來寫矩陣和的方法:

如果我們選擇一個小於矩陣滿秩的R,那麼這個和就是一個近似值,就像截斷SVD的情況一樣。

CP分解讓我們推廣了張量。

使用CP分解,我們的卷積核,一個四維張量公式,可以近似為一個選定的R:

我們希望R對於有效的分解是小的,但是對保持近似高精度是足夠大的。


帶CP分解的卷積正向傳遞

為了傳遞圖層,我們使用輸入進行卷積:

這給了我們一個辦法來解決這個問題:

1.首先做一個wise(1x1xS)與卷積。這減少了從S到R輸入通道的數量。下一步將在較少數量的通道上完成卷積,使其更快。

2.用在空間維度上執行分離的卷積。就像在行動網路中一樣,卷積是深度可分的,分別在每個通道中完成。與mobilenets不同,卷積在空間維度上也是可分的

3.做另一個逐點卷積來改變從R到T的通道數量如果原始卷積層有一個偏差,在這一點上加上它。

注意像在移動網中的逐點和深度卷積的組合。在使用mobilenets的時候,你必須從頭開始訓練一個網絡來獲得這個結構,在這裡我們可以把現有的圖層分解成這種形式。

與行動網路一樣,為了獲得最快的速度,需要一個有效實現深度可分離卷積的平臺。


用PyTorch和Tensorly卷積層CP分解


1511.06530 用於快速和低功率移動應用的深度卷積神經網絡的壓縮

1511.06530 Compression of Deep Convolutional Neural Networks for Fast and Low Power Mobile Applications 這一篇非常酷的論文,說明了如何使用Tucker分解來加速卷積層來得到更好的結果。我也在基於VGG的參數化網絡用了這種加速,比CP分解的精度要好。作者在論文中指出,它可以讓我們使用更高的學習率(我用)進行微調。

Tucker分解也稱為高階奇異值分解(HOSVD)或者其他名稱,是對張量進行奇異值分解的一種推廣。

它認為SVD的推廣的原因是的分量通常是正交的,但這對於我們的目的並不重要。被稱為核心矩陣,並定義不同的軸如何相互作用。

在上面描述的CP分解中,沿著空間維度的分解導致空間上可分離的卷積。無論如何,過濾器是非常小的,通常是3x3或5x5,所以可分離的卷積並不節省我們大量的計算,而且是一個積極的近似。

Trucker分解有用的性質是,它不必沿著所有的軸(模式)分解。我們可以沿著輸入和輸出通道進行分解(模式2分解):


卷積正向傳遞與塔克分解

像CP分解一樣,寫一下卷積公式並插入內核分解:

這給了我們以下用Tucker分解進行卷積的配方:

1.與進行點對點卷積,信道從S減少到的數量。

2.用進行正則(不可分)卷積。這個卷積代替了原始層的S輸入通道和T輸出通道,具有輸入通道和輸出通道。如果這些等級小於S和T,這就是減少的原因。

3.用進行點對點卷積以回到原始卷積的T個輸出通道。由於這是最後一次卷積,所以在這一點上,如果有偏差就加上偏差。


我們如何選擇分解行列

一種方法是嘗試不同的值並檢查準確性。嘗試後的啟發是,效果很好。

理想情況下,選擇行列應該是自動的。

作者提出使用變分貝葉斯矩陣分解(VBMF)(Nakajima等,2013)作為估計等級的方法。

VBMF很複雜,不在本文的討論範圍內,但是在一個非常高層次的總結中,他們所做的是將矩陣近似為低秩矩陣和高斯噪聲之和。在找到A和B之後,H是等級的上限。

為了將其用於Tucker分解,我們可以展開原始權重張量的s和t分量來創建矩陣。然後我們可以使用VBMF估計和作為矩陣的秩。

我用這個在Python上實現的VBMF,相信它可以工作。

VBMF通常返回的秩,非常接近我之前,仔細和乏味的手動調整得到的結果。

這也可以用於估計完全連接層的截斷SVD加速的等級。


用PyTorch和Tensorly卷積層Tucker分解

總結

在這篇文章中,我們討論了幾個張量分解的方法來加速深度神經網絡。

我覺得有趣的是網絡設計中的常見模式,逐點和深度卷積,自然而然出現在這些分解中!



博客原址 https://jacobgil.github.io/deeplearning/tensor-decompositions-deep-learning

更多文章,關注雷鋒網(公眾號:雷鋒網),添加雷鋒字幕組微信號(leiphonefansub)為好友

備註「我要加入」,To be a  AI  Volunteer !

雷鋒網雷鋒網

雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • 綜述論文:當前深度神經網絡模型壓縮和加速方法速覽
    基於低秩分解(Low-rank factorization)技術的方法使用矩陣/張量分解以估計深層 CNN 中最具信息量的參數。基於遷移/壓縮卷積濾波器(transferred/compact convolutional filters)的方法設計了特殊結構的卷積濾波器以減少存儲和計算的複雜度。
  • 如何使用Keras構建殘差神經網絡?
    什麼是殘差神經網絡?原則上,神經網絡的層數越多,應獲得越好的結果。一個更深層的網絡可以學到任何淺層的東西,甚至可能更多。如果對於給定的數據集,網絡無法通過添加更多的層來學習更多東西,那麼它就可以學習這些其他層的恆等映射(identity mappings)。這樣,它可以保留先前層中的信息,並且不會比較淺的層更糟糕。
  • MIT Taco項目:自動生成張量計算的優化代碼,深度學習加速效果提高...
    例如,如果用一個龐大的表格表示亞馬遜所有客戶與其所有產品的對應映射關係,購買某個產品以「1」表示,未購買以「0」表示,這張表的大部分將會是0。使用稀疏數據進行分析的算法最終做了大量的加法和乘法,而這大部分計算是無效的。通常,程式設計師通過編寫自定義代碼來優化和避免零條目,但這種代碼通常編寫起來複雜,而且通常適用範圍狹窄。
  • 如何在GPU上設計高性能的神經網絡
    NVIDIA擁有業內領先的GPU,其張量核心為Volta V100和安培A100加速哪種方法最適合你的神經網絡?為了以最低的成本設計出最快的神經網絡,機器學習架構師必須解決許多問題。此外,僅僅使用帶有GPU和張量核心的機器並不能保證最高性能。那麼,作為一個機器學習架構師,應該如何處理這個問題呢?當然,您不能是硬體不可知論者。您需要了解硬體的功能,以便以最低的成本獲得最大的性能。
  • 深度學習中的張量方法(文末送福利)
    其實,整個神經網絡都可以簡單視為為了達到某種目的,針對輸入張量進行的一系列操作過程。而所謂的「學習」就是不斷糾正神經網絡的實際輸出結果和預期結果之間誤差的過程。這裡的一系列操作包含的範圍很寬,可以是簡單的矩陣乘法,也可以是卷積、池化和LSTM等稍複雜的運算。
  • 如何教神經網絡玩 21 點遊戲(附代碼)?
    神經網絡可以很容易地處理那些會給線性回歸等帶來麻煩的數據。此外,網絡中的層和神經元將學習數據中可能存在的任何深度嵌入的非線性關係。然而,這種功能是有代價的——神經網絡是一個黑箱模型。與回歸不同的是,我們可以通過觀察回歸係數來了解模型是如何做出決策的,神經網絡並不具備這種透明性。此外,神經網絡也有可能把我們的數據擬合得太好,以致於不能很好地概括樣本外數據。
  • 用於多關係數據的圖神經網絡R-GCNs|向量|張量|柏拉圖|蘇格拉底|...
    本文描述如何擴展圖神經網絡(GNNs)的最簡單公式,以編碼知識圖譜(KGs)等多關係數據的結構。  這篇文章包括4個主要部分:  1.考慮我們正在運行的示例,從「蘇格拉底」到「柏拉圖」的連接可以用「影響」來標記。 在相反的方向上,可以建立從「柏拉圖」到「蘇格拉底」的另一種連接,可以用「影響者」來標記。  換句話說,KG是基於圖的結構,其節點表示真實世界的實體,而邊沿則定義了這些實體之間的多個關係。
  • 初學AI神經網絡應該選擇Keras或是Pytorch框架?
    TensorFlow框架儘管意義非凡,引起極大關注和神經網絡學習風潮,但對一般開發者用戶太不友好。軟體開發者畢竟不是科學家,很多時候簡單易學易用是程式設計師選擇的第一要素。目前,兩個主要的深度學習庫Keras和Pytorch獲得了大量關注,主要是因為它們的使用比較簡單。
  • 教程 | 如何用PyTorch實現遞歸神經網絡?
    許多語言學家認為,人類通過如上面所說的樹的分層方式來組合詞意並理解語言,所以用相同的方式嘗試構建一個神經網絡是值得的。下面的例子是數據集中的一個句子,其解析樹由嵌套括號表示:   ( ( The church ) ( ( has ( cracks ( in ( the ceiling ) ) ) ) . ) )這個句子進行編碼的一種方式是使用含有解析樹的神經網絡構建一個神經網絡層 Reduce,這個神經網絡層能夠組合詞語對(用詞嵌入(word embedding)表示,如 GloVe
  • 三步教你搭建給黑白照片上色的神經網絡 !(附代碼)
    免費版支持1個項目、每月20小時GPU時長、10G存儲空間,用上色項目練個手足夠了。進入正題~以下內容編譯自FloydHub官方博客:我將分三個步驟展示如何打造你自己的著色神經網絡。第一部分介紹核心邏輯。
  • 【乾貨】用神經網絡識別歌曲流派(附代碼)
    作者:Navdeep Singh編譯:肖琴【新智元導讀】本文手把手教你如何構建一個能夠識別歌曲類型的神經網絡。MFCC值將被直接輸入神經網絡。了解MFCC讓我們用兩個例子來說明MFCC。請通過Stereo Surgeon下載Kick Loop 5[2]和Whistling[3]。其中一個是低音鼓聲,另一個是高音口哨聲。它們明顯不同,你可以看到它們的MFCC數值是不同的。讓我們轉到代碼(本文的所有代碼文件都可以在Github連結中找到)。
  • 從張量到自動微分:PyTorch入門教程
    PyTorch(點擊閱讀)則是由Facebook創建的python包,提供兩個高層特性:1) 類似Numpy的基於GPU加速的張量運算 2) 在基於回放(tape-based)的自動微分系統之上構建的深度神經網絡。
  • 用Python實現BP神經網絡(附代碼)
    前兩期線性回歸及邏輯回歸項目已發布(見文末連結),今天來講講BP神經網絡。BP神經網絡全部代碼https://github.com/lawlite19/MachineLearning_Python/blob/master
  • 從零開始用 Python 構建循環神經網絡(附代碼)
    看到一篇文章時,我們會根據之前對這些詞的理解來了解背景。我們將其定義為記憶力。算法可以複製這種模式嗎?神經網絡(NN)是最先被想到的技術。但令人遺憾的是傳統的神經網絡還無法做到這一點。 舉個例子,如果讓傳統的神經網絡預測一個視頻中接下來會發生什麼,它很難有精確的結果。這就是循環神經網絡(RNN)發揮作用的地方。
  • 圖解:卷積神經網絡數學原理解析
    事實上,我們每天都在使用計算機視覺——當我們用面部解鎖手機或在社交媒體上發照片前使用自動修圖。卷積神經網絡可能是這一巨大成功背後最關鍵的構建模塊。這一次,我們將加深理解神經網絡如何工作於CNNs。出於建議,這篇文章將包括相當複雜的數學方程,如果你不習慣線性代數和微分,請不要氣餒。我的目標不是讓你們記住這些公式,而是讓你們對下面發生的事情有一個直觀的認識。
  • 如何用30行JavaScript代碼編寫神經網絡異或運算器
    近日,編程學習平臺 Scrimba 聯合創始人 Per Harald Borgen 在 Medium 上發文介紹了一種僅用 30 行 JavaScript 代碼就創建出了一個神經網絡的教程,而且使用的工具也只有 Node.js、Synaptic.js 和瀏覽器而已。另外,作者還做了一個交互式 Scrimba 教程,也許能幫你理解其中的複雜概念。
  • 《超智能體》作者講述深層神經網絡設計理念(附PPT+視頻) | 雷鋒網...
    本期雷鋒網硬創公開課邀請到《超智能體》一書作者於建國,分享的內容就是理解為何「深層」比「淺層」網絡要好,深度學習適用於什麼任務,並嘗試找出前饋神經網絡、循環神經網絡、卷及神經網絡、殘差網絡、預訓練、多任務學習、端到端學習、自動編碼器、遷移學習、distillation、dropout、regularization、batch-normalization等技術背後的共享,讓大家感受該如何設計符合自己任務的深層神經網絡
  • 人工智慧算法:訓練神經網絡中的批量歸一化(附代碼)
    而且,如果您還沒有這樣做的話,本文將解釋BN的基本直覺,包括其起源以及如何使用TensorFlow和Keras在神經網絡中實現它。對於那些熟悉BN技術並且只想專注於實現的人,可以跳到下面的「代碼」部分。
  • 30行代碼,帶你分分鐘創建神經網絡!(附工具&教程)
    。在本篇文章中,你將學到今天我們要講的例子是一個非常簡單的神經網絡,我們將用它來學習邏輯異或方程(XOR equation)。同時,我也在Scrimba上創建了一個交互式屏幕錄像。你也可以通過觀看視頻來學習本教程。(https://scrimba.com/casts/cast-1980)在開始編程之前,讓我們先快速瀏覽神經網絡的一些基本概念。
  • PyTorch進階之路(一):張量與梯度
    (神經網絡、CNN、RNN、GAN 等)本系列教程旨在讓用戶更好地利用 PyTorch 學習深度學習和神經網絡。本文將介紹 PyTorch 模型的基本構件:張量和梯度。系統設置本教程採用代碼優先的方法來學習 PyTorch,你應該嘗試自己運行和實驗代碼。