重磅論文 | 解析深度卷積神經網絡的14種設計模式(附下載)

2020-11-27 搜狐網

原標題:重磅論文 | 解析深度卷積神經網絡的14種設計模式(附下載)

選自arXiv.org

機器之心編譯

參與:吳攀、武競、李澤南、蔣思源、李亞洲

這篇論文的作者是來自美國海軍研究實驗室的 Leslie N. Smith 和來自美國馬裡蘭大學的 Nicholay Topin,他們在本論文中總結了深度卷積神經網絡的 14 種設計模式;其中包括:1. 架構結構遵循應用;2. 擴增路徑;3. 努力實現簡潔;4. 增加對稱性;5. 金字塔形狀;6. 用訓練數據覆蓋問題空間;7. 過訓練;8. 增量特徵構造;9. 規範層輸入;10. 可用資源決定網絡深度;11. 轉換輸入;12. 求和連接;13. 下採樣過渡;14. 用於競爭的 MaxOut。該論文已被提交到了 ICLR 2017。論文原文可點擊文末「閱讀原文」下載。

摘要

深度學習領域近來的研究已經產出了大量的新架構。與此同時,也有越來越多的團隊在將深度學習應用到新的應用和問題上。這些團隊中的許多都可能是由沒有經驗的深度學習實踐者構成的,他們可能會對讓人眼花繚亂的架構選擇感到困惑,因此會選擇去使用一個更古老的架構,如 AlexNet。在這裡,我們嘗試挖掘近來深度學習研究中包含的集體知識(collective knowledge)以發現設計神經網絡架構的基本原理,從而幫助彌合這一差距。此外,我們還描述了幾種架構創新,其中包括 Fractal of FractalNet、Stagewise Boosting Networks 和 Taylor Series Networks(我們的 Caffe 代碼和 prototxt 文件將會在被 ICLR 接受後公開)。我們希望這項初步的工作能夠激勵進一步的研究。

1.引言

最近,關於新型神經網絡架構的文章已經出現了很多,特別是關於殘差網絡(Residual Network)的,比如 He et al. (2015; 2016); Larsson et al. (2016); Zhang et al. (2016); Huang et al. (2016b)。這促使我們在一個更高的層面上來看待這些架構——將這些架構看作是普遍設計原理的潛在來源。這是相當重要的,因為現在有許多沒有經驗的實踐者在想辦法將深度學習應用到不同的新應用上。缺乏指導會導致深度學習實踐新手忽視最新的研究而選擇 AlexNet(或一些類似的標準架構),不管其是否合適他們的應用。

這種研究的極大豐富也是一個機會:可以確認能為特定背景的應用帶來好處的元素。我們提出了一些基本的問題:深度網絡設計的普遍原理是否存在?這些原理可以從深度學習的集體知識(collective knowledge)中挖掘出來嗎?哪些架構選擇在哪些特定的背景(context)中效果最好?哪些架構或部分架構看起來很簡潔優美?

設計模式(design pattern)的概念最早由 Christopher Alexander (Alexander (1979)) 引入到建築物和城鎮的結構設計上。Alexander 寫道:一種永恆的架構可以一直存在,這種質量可以通過基於普遍原理進行設計而實現。這種設計模式的基礎是它們能在給定的背景中解決力量的衝突,並實現類似於自然生態平衡那樣的均衡。設計模式既是高度特定的(使得它們可以很清楚地遵循),也是靈活的(讓它們可被適配到不同的環境和情景中)。受 Alexander 的工作的啟發,「gang of four」(Gamma et al. (1995))將設計模式的概念應用到了面向對象的軟體的架構設計上。這本經典的計算機科學書籍描述了 23 種可以用來解決軟體設計中普遍存在的問題的模式,例如「需求總是在改變」。我們受到了之前這些在架構上的工作的啟發,決定闡釋神經網絡架構的可能設計模式。

設計模式可以提供普遍性的指導原則,在這裡我們首先要定義用於神經網絡架構的設計模式。整體而言,要為所有的神經網絡和所有的應用定義設計原理是一項巨大的任務,所以我們將這篇論文的範圍限制在了卷積神經網絡(CNN)及其基本的圖像分類應用上。但是,我們認識到架構必須依賴於具備我們的第一設計模式的應用——設計模式 1:架構結構遵循應用;但相關的細節留待未來解決。此外,這些原理讓我們可以發現已有研究中的一些缺陷和闡釋全新的架構特徵,比如 freeze-drop-path(參見 4.1 節)。這裡闡述的經驗法則可能對有經驗的和新手的實踐者都有價值。另外,我們真心希望這項初步的研究能夠成為其它研究的墊腳石,能幫助其他人發現和分享其它深度學習設計模式。

2.相關工作

本節介紹和總結了其它一些神經網絡架構上的相關研究工作,但由於篇幅限制,機器之心未對此節進行編譯,詳情請查看原論文。

3.設計模式

就我們所知,提供合適架構選擇的指導與理解的文獻資料很少。《Neural Networks: Tricks of the Trade》(Orr & Muller, ¨ 2003) 這本書包含了網絡模型推薦,但沒有參考過去幾年的大量研究。與這項工作最接近的可能是 Szegedy et al. (2015b),作者在其中描述了幾種基於他們自己的經驗的設計原理。

我們仔細審閱了文獻以提取出它們的共性並將它們的設計歸結成了基本的元素——這些元素也許可被認為是設計模式。在審閱文獻的過程中,我們似乎很清楚一些設計似乎是簡潔優雅的,而另一些則沒那麼簡潔優雅。在這裡,我們將首先描述一些高層面的設計模式,然後再提出一些更為詳細的設計模式。

3.1 高層面的架構設計

一些研究者已經指出 ImageNet 挑戰賽 (Russakovsky et al., 2015) 的獲勝者在不斷使用越來越深度的網絡(參見:Krizhevsky et al. (2012), Szegedy et al. (2015a), Simonyan & Zisserman (2014), He et al. (2015))。另外在 ImageNet 挑戰賽上很明顯的一點是:將通過網絡的路徑的數量倍增是最近的一個趨勢;如果看一看 AlexNet 到 Inception 到 ResNets 的演變,就能明顯看到這個趨勢。比如說,Veit et al. (2016) 表明 ResNets 可被看作是帶有不同長度的網絡的指數集合(exponential ensemble)。這引出了設計模式 2:擴增路徑。開發者可以通過將多個分支包含在架構中來實現。最近的例子包括 FractalNet (Larsson et al. 2016)、Xception (Chollet 2016) 和決策森林卷積網絡(Decision Forest Convolutional Networks (Ioannou et al. 2016))。我們甚至可以更進一步預測今年的 ImageNet 獲勝者也還會增加他們的架構中的分支數量,而不是繼續增加深度。

科學家們已經擁抱簡潔性/簡約性(simplicity/parsimony)幾個世紀了。簡潔性的例子可參考論文「Striving for Simplicity」(Springenberg et al. 2014),其使用更少類型的單元實現了當時最佳的結果。我們將其加為設計模式 3:努力實現簡潔——使用更少類型的層以保持網絡儘可能簡單。我們還在 FractalNet (Larsson et al. 2016) 設計中注意到了一種特定程度的簡潔性,我們將其歸功於其結構的對稱性。架構的對稱性(architectural symmetry)通常被看作是美麗和質量的標誌,所以我們在這裡得到了設計模式 4:增加對稱性。除了對稱性以外,FractalNets 還遵循了「擴增路徑」設計模式,所以它是我們第 4 節的實驗的基礎。

為了理解相關的力量,考察權衡是設計模式的關鍵元素。一種基本的權衡是最大化表徵的力量 vs 冗餘的和非區分的信息的壓縮。這普遍存在於所有卷積神經網絡中,從數據到最後的卷積層,激活(activation)被下採樣(downsample)並且信道數量增加。一個例子是深度金字塔殘差網絡(Deep Pyramidal Residual Networks (Han et al. (2016)))。這讓我們得到了設計模式 5:金字塔形狀,其中在整個架構中應該有一次整體的平滑的下採樣,而且該下採樣應該與信道數量的增長結合起來。

深度學習中另一個重要的權衡是:訓練精度 vs 網絡泛化到其從未見過的案例的能力。泛化的能力是深度神經網絡的一個很重要的性質。一種提升泛化的方法是設計模式 6:用訓練數據覆蓋問題空間(Ratner et al. 2016, Hu et al. 2016, Wong et al. 2016, Johnson-Roberson et al. 2016)。這讓訓練精度可以直接提升測試精度。此外,正則化(regularization)常被用於提升泛化。正則化包括 dropout (Srivastava et al. 2014a) 和 drop-path (Huang et al. 2016b) 等方法。正如 Srivastava et al. 2014b 指出的那樣,dropout 可通過向架構中注入噪聲來提升泛化能力。我們將在訓練過程使用正則化技術和謹慎的噪聲注入可以提升泛化(Srivastava et al. 2014b, Gulcehre et al. 2016)的結論歸結為設計模式 7:過訓練(over-training)。過訓練包含網絡在一個更艱難的問題上訓練的任何訓練方法——該問題的難度超過了必要,因此在更容易的推理情況中的表現可以得到提升。除了正則化方法,設計模式 7 還包括有噪聲的數據的使用(Rasmus et al. 2015, Krause et al. 2015, Pezeshki et al. 2015)。

3.2 細節上的架構設計

很多更成功的架構的一個共同點是使每個層更容易完成任務。使用極深層網絡(very deep network)就是這樣的例子,因為任何單個層只需要遞增地修改輸入。這部分解釋了殘差網絡(residual network)的成功,因為在極深層網絡中,每層的輸出可能與輸入相似,因此將輸入代替層的輸出能使層更容易完成任務。這也是擴增路徑設計模式背後的一部分動機,但是使每個層簡化任務的想法超越了這一概念。設計模式 8 :增量特徵構造(Incremental Feature Construction)的一個例子是在 ResNets 中使用短距離跳躍(skip)。最近的一篇論文(Alain & Bengio (2016))證明在深度 128 的網絡中使用長度為 64 跳越會導致網絡的第一部分不訓練,並且導致不變化的權重,這是需要避免的。

設計模式 9:規範層輸入(Normalize layer inputs)是另一個簡化層任務的方法:使層輸入標準化。已經顯示,層輸入的標準化能改善訓練結果和提高準確性,但是潛在機理並不清楚(Ioffe & Szegedy 2015, Ba et al. 2016, Salimans & Kingma 2016)。Batch 標準化的論文(Ioffe & Szegedy 2015)將提高歸因於解決內部協變量偏移問題,而流標準化(streaming normalization)的作者(Liao et al. 2016)認為這也許是其它原因造成的。我們認為標準化使所有輸入樣本更加平等,就好像它們通過單位轉換進行縮放一樣,這使得反向傳播(back-propagation)訓練更有效。

一些研究,如 Wide ResNets(Zagoruyko & Komodakis 2016),顯示增加信道(channel)的數量提高了性能,但是多餘的信道會產生額外的代價。許多基準數據集的輸入數據有 3 個通道(即顏色 RGB)。幾乎是普遍現象,CNN 的第一層的輸出增加了信道的數量。設計模式 11:轉換輸入。增加信道的幾個例子 / ImageNet 的第一層輸出的數量分別為 AlexNet (96),Inception (32),VGG (224),以及 ResNets (64)。直觀上講,第一層中信道數量從 3 增加是合理的,因為它允許以多種方式檢查輸入數據,但是不清楚使用多少個過濾器。另一個是成本與精確度的權衡。成本包括網絡中的參數的數量,這直接反映在訓練的計算量和存儲成本中。增加信道數量會增加成本,這導致設計模式 10:可用資源決定網絡深度。除了在下採樣(down-sampling)時使輸出數量加倍(見設計模式 13),根據內存、計算資源和期望的精確度來選擇第一層的深度。深度學習的計算開銷很高,每個從業者必須平衡這些成本與其應用程式的性能。

3.2.1 分支連接:串聯、求和/平均與 Maxout

當存在多個分支時,有三種方法來合併輸出:串聯、求和(或平均)與 Maxout。目前看來研究人員對它們的看法各不相同,沒有哪一種方式更具優勢。在本節中,我們提出一些簡單的規則來決定如何合併分支。

求和是合併輸出的最常見方法之一:求和/平均將分支間的近似工作分割,最終形成設計模式 12:求和連接(Summation Joining)。求和是殘差網絡的最佳連接機制。因為它允許網絡計算校正項(即殘差)而無需整個信號。sum 和 fractal-join(平均)之間的差異最好通過 drop-path 來理解(Huang et al.,2016)。在輸入跳躍連接總是存在的殘差網絡中,求和能使卷積層學習殘差(與輸入的差)。另一方面,在具有若干分支的網絡中,如 FactalNet(Larsson et al.,2016),使用均值是最佳方式,因為隨著分支被隨機丟棄,它可以保證輸出平順。

一些研究者似乎更喜歡串聯(concatenation,例如 Szegedy et al,2015)我們相信串聯對於增加池化時的輸出數量是最有用的,這讓我們得到了設計模式 13:下採樣過渡(Down-sampling Transition)。這就是說,當池化或使用步幅(stride)超過 1 的下採樣時,組合分支的最好方法是串聯輸出信道,它可以平滑地實現通常以下採樣方式實現的信道連接和信道數量增加。

Maxout 已經被用於競爭,如本地競爭網絡(Srivastava 等人,2014)和多尺度競爭網絡(Liao 與 Carneiro,2015)Maxout 只選擇一種激活,形成設計模式 14:MaxOut for Competition。它與求和或平均「合作」的激活方式相反,其中存在「競爭」關係,只有一個「贏家」。例如,當分支由不同大小的核(kernel)組成時,Maxout 可用於尺度的不變性,這類似於最大池化(max pooling)的平移不變性。

我們認為所有這些連接機制可以同時加入單獨網絡,不同於典型情況。

圖 1:這是 FractalNet 模塊(a)和 FoF 架構(b)。曾表示如下:卷積層粉紅色,連接層(如均值)是綠色,池層是黃色,預測層是藍色。(b)中的灰色模塊表示(a)中的 FractalNet 實例。

4 實驗

4.1 架構創新

本論文的重點是闡明基本設計原則,這樣做的原因就是幫助我們發現一些架構上的創新,在本節中,這些創新將進一步被描繪出來。

首先,我們建議將求和/平均、串聯和 maxout 連接機制與單一架構中的不同角色結合起來。接下來,通過增加分支的設計模式 2 來讓我們能夠大規模修飾 FractalNet 架構的順序。最後按照我們稱之為 Fractal of FractalNet (FoF) 網絡,也就是 1b 中展示的分形模式調整模塊,而不是按照最大深度來調整。該架構可將深度替換成更大數量的路徑。

4.1.1 Freeze-Drop-Path 和 Stagewise Boosting Networks(SBN)

Drop-path 是被 Huang 等引進的(2016b). 它通過迭代訓練隨機移除分支路徑,就好像這條路徑在整個網絡中是不存在的。出於對對稱性的考慮,我們使用了一個叫 freeze-path 的相反的方法。我們凍結權重來達到零的學習率(learning rate),而不是在訓練期間直接移除網絡中的分支路徑。循環神經網絡領域也已經有一種類似的想法被提了出來 (Krueger et al. 2016)。

我們稱結合了 drop-path 和 freeze-path 效用的模型為 freeze-drop-path,這個可以在非隨機情況下得到很好的解釋。圖 1 顯示了一個 FractalNet 分形結構。我們從最左側路徑開始訓練,並將 drop-path 應用到其他分支上面。這個分支的訓練速度會很快,因為相對於整個網絡只需要訓練少量的參數。隨後凍結那條分支路徑的權重並激活在原來右邊的一條分支路徑。最左邊的分支也就可以提供一個很好的近似函數,並且下一條分支也能在矯正的基礎上運行了。因為下一個分支路徑相比前一個包含了更多的層,所以和原來的相比更容易逼近矯正項的近似值,因此這樣的分支允許網絡獲得更大的準確性。這樣也就可以繼續從左至右來訓練整個網絡。freeze-drop-path 將最後加入 FoF 架構(圖片 1b),這個稱之為梯度遞增網絡(Stagewise Boosting Networks (SBN)),因為它就是類似於梯度遞增的(Friedman et al. 2001)。遞增神經網絡 (boosting neural network;Schwenk & Bengio 2000) 並不是個新概念,但是這個構架就是新的。在 B 部分我們將討論測試的實施。

4.1.2 泰勒級數網絡(Taylor Series Netwroks,TSN)

泰勒級數是一個經典的、眾所周知的函數逼近方法。泰勒級數的擴展是:

由於神經網絡也是函數近似,將網絡的分支(branch)看成一個泰勒級數展開的項,它可以作為 SBN 的延伸。這意味著,在求和連接單元(summation joining unit)之前使第二分支的結果平方,類似於泰勒展開中的二階項。類似地,使第三分支立方。我們將它稱作「泰勒級數網絡」(TSN),並且存在多項式網絡的優先級(Livni et al. 2014)和網絡中的乘式項(例如 Lin et al. 2015 年的論文)。TSN 與 SBN 類比的實現細節詳見附錄討論。

4.2 結果

該章節內的實驗主要是驗證上面提到的架構創新的驗證,但並非完全進行測試。未來會有更完整的評估。

表 1:在 CIFAR-10 和 CIFAR-100 上各種架構的測試準確率對比。

圖 2:對比原 FractalNet 與用 Concatenation 或 Maxout 替代了一些 fractal-joins 的 FractalNet。同樣展示的還有當用平均池化替代了最大池化時的測試準確度。

圖 3:對比原 FractalNet 與用 Concatenation 或 Maxout 替代了一些 fractal-joins 的 FractalNet。同樣展示的還有當用平均池化替代了最大池化時的測試準確度。

表一和圖 3 接下來對比 4.1 章節中描述的架構創新的最終測試準確率的結果。最終的結果顯示要比 FractalNet 基線差一點,但從 3a 和 3b 圖中可以明顯看到新架構訓練起來要比 FractalNet 更快。FoF 架構最終測試準確率類似於 FractalNet,但 SBN 和 TSN 架構(使用 freeze-drop-path)在學習率下降的時候準確率會落後。這在 CIFAR-100 上要比 CIFAR-10 更加明顯,表明這些架構可能更適合帶有大量分類的應用。但是,我們也遺留下了對更多合適應用的探索,以後再做。

5. 結論

在此論文中,我們描述了通過研究近期深度學習論文中的新架構而發現的卷積神經網絡架構的設計模式。我們希望這些設計模式對希望推進前沿結果的有經驗的實踐者和尋求深度學習新應用的新手都有所幫助。接下來也有許多的潛在工作可以做,一些工作我們也在此論文中有所指明。我們的努力主要限定在進行分類的殘差神經網絡,但希望這一初步工作能啟發其他人進行循環神經網絡、深度強化學習架構等等其它網絡的架構設計模式的研究。

©本文由機器之心編譯,轉載請聯繫本公眾號獲得授權

✄------------------------------------------------

加入機器之心(全職記者/實習生):hr@almosthuman.cn

投稿或尋求報導:editor@almosthuman.cn

廣告&商務合作:bd@almosthuman.cn返回搜狐,查看更多

責任編輯:

相關焦點

  • 從特徵檢測器到視覺轉換器:卷積神經網絡的時代到此結束了嗎?
    圖源:unsplash近十年來,卷積神經網絡一直在全球計算機視覺研究領域發揮著主導作用。但研究者們正在提出一種新方法,想要利用轉換器的功能賦予圖像更深層的意義。轉換器最初是為自然語言處理任務而設計的,主攻神經網絡機器翻譯。後來,谷歌研究院的阿列克謝·多索維斯基(Alexey Dosovitskiy)、盧卡斯·拜爾(Lucas Beyer)等人撰寫了一篇題目為《一幅圖像值得16x16個字符:大規模用於圖像識別的轉換器》的論文,提出了一種名為視覺轉換器(ViT)的架構,該架構可通過轉換器處理圖像數據。
  • 萬字長文|如何直觀解釋卷積神經網絡的工作原理?
    作者:YJango 日本會津大學|人機互動實驗室博士生 量子位 已獲授權編輯發布 該文是對卷積神經網絡的介紹,並假設你理解前饋神經網絡。 如果不是,強烈建議讀完《如何簡單形象又有趣地講解神經網絡是什麼?》
  • ACL論文 | 深度學習大神新作,神經網絡的自然語言翻譯應用
    講座學者之一 Kyunghyn Cho 與深度學習「大神」 Yoshua Bengio、蒙特婁大學學者 Junyoung Chung 在 ACL 大會上發表了論文,進一步展現神經機器翻譯的研究結果。在此,雷鋒網(公眾號:雷鋒網)為大家分享名為《針對神經機器翻譯,無需顯性分割的字符等級解碼器》論文全文。
  • 德克薩斯A&M大學在讀博士遊宇寧:自監督學習在圖卷積網絡中的研究...
    當前自監督學習已經被廣泛用於訓練卷積神經網絡(CNNs),有效地提高了圖像表示學習可傳遞性、泛化能力和魯棒性,並且已在語義分割、目標檢測、圖像分類、人體動作識別等實戰場景中展現出卓越效果。現在更多無需人工標註的前置任務訓練也被提出,如前景對象分割、圖像修補、圖像著色等。然而,自監督如何應用於處理圖數據結構的圖卷積網絡(GCNs)的問題卻很少被探索。
  • 《超智能體》作者講述深層神經網絡設計理念(附PPT+視頻) | 雷鋒網...
    本期雷鋒網硬創公開課邀請到《超智能體》一書作者於建國,分享的內容就是理解為何「深層」比「淺層」網絡要好,深度學習適用於什麼任務,並嘗試找出前饋神經網絡、循環神經網絡、卷及神經網絡、殘差網絡、預訓練、多任務學習、端到端學習、自動編碼器、遷移學習、distillation、dropout、regularization、batch-normalization等技術背後的共享,讓大家感受該如何設計符合自己任務的深層神經網絡
  • 今日Nature: 人工智慧從0到1, 無師自通完爆阿法狗100-0 深度解析
    知社特邀國內外幾位人工智慧專家,給予深度解析和點評。文末有DeepMind David Silver博士專訪視頻。特别致謝Nature和DeepMind提供訊息和資料授權。    Nature今天上線的這篇重磅論文,詳細介紹了谷歌DeepMind團隊最新的研究成果。人工智慧的一項重要目標,是在沒有任何先驗知識的前提下,通過完全的自學,在極具挑戰的領域,達到超人的境地。
  • 人工智慧黑盒揭秘:深度神經網絡可視化技術
    但深度神經網絡又被稱為「黑盒」模型,多層隱藏結構,數據 / 特徵矢量化,海量決策關鍵元等因素讓模型使用者犯難:模型決策的依據是什麼?應該相信模型麼?特別是對於金融,醫藥,生物等關鍵型任務,深度學習模型的弱解釋性成為人工智慧項目落地的最大障礙。
  • MIT韓松專訪:Once for All 神經網絡高效適配不同硬體平臺
    為了提高硬體平臺上的推理效率,需要改變神經網路的結構(例如深度,寬度,卷積核大小,輸入解析度等)來適配具體的硬體。在同一個平臺上,研究人員也設置了不同的效率限制,目的是在算力不同的平臺運行時達到平衡。 一個通用的 OFA 網絡支持在大量不同的結構設置下通過截取 OFA 網絡的不同部分來進行高效推理。
  • 乂學教育-松鼠AI獲KDD國際圖深度學習研討會最佳論文 & 最佳學生論文
    其中,據已公開消息,KDD研究賽道共收到1179篇投稿,其中111篇被接收為Oral論文,63篇被接收為Poster論文,入選率14.8%。應用賽道收到700餘篇論文,其中大45篇被接收為Oral論文,100篇被接收為Poster論文,接收率20.7%。
  • 深度神經網絡教你如何圖像去霧
    通過「觀察→經驗→設計」構建各式各樣的特徵來滿足各式各樣的任務需求。圖像去霧技術也是沿著手工特徵逐步地發展起來。(1)暗通道先驗[2](Dark Channel Prior,DCP)說起去霧特徵,不得不提起的暗通道先驗(DCP)。大道之行在於簡,DCP作為CVPR 2009的最佳論文,以簡潔有效的先驗假設解決了霧霾濃度估計問題。
  • Bengio 團隊力作:GNN 對比基準橫空出世,圖神經網絡的「ImageNet...
    近年來,大名鼎鼎的 2012 ImageNet 挑戰賽提供了一個很好的對比基準測試數據集,它掀起了深度學習的革命。來自世界各國的研究團隊爭相開發出用於在大規模數據集上進行圖像分類的最幽默型。由於在 ImageNet 數據集上取得的重大進展,計算機視覺研究社區已經開闢出了一條光明的發展道路,朝著發現魯棒的網絡架構和訓練深度神經網絡的技術邁進。
  • 重磅| 吳恩達深度學習課程中文字幕版上線網易雲課堂,,可無限次觀看
    配有相關配套練習,體驗過的小夥伴對測設題目的設計和質量都評價很不錯。此次網易引入中文版課程,除了忠實於原版課程內容,不做任何刪減外,還會不定期安排相關行業專家進行直播互動,這無疑是為國內想學習人工智慧這門課程的愛好者提供了極大便利。附課程內容:(來源網易雲課堂)
  • 神經網絡「剪枝」的兩個方法
    , Ferenc Huszár (2018) Faster gaze prediction with dense networks and Fisher pruning》   論文地址:https://arxiv.org/abs/1801.05787   第二篇論文的標題中提到的修剪,其含義是在神經網絡中減少或控制非零參數的數量
  • 歪比歪比,歪比巴卜,神經網絡也該用上加密「通話」了
    作者 | 賽文編輯 | 陳大鑫AI科技評論今天解讀的論文是近日獲得BMVC 2020最佳論文獎亞軍的論文:《Key-Nets: Optical Transformation Convolutional Networks for Privacy Preserving Vision Sensors》這篇論文為設計保護隱私的深度學習應用提供了一種範式
  • 【盤點影響計算機視覺Top100論文】從ResNet到AlexNet
    囊括上百篇論文,分ImageNet 分類、物體檢測、物體追蹤、物體識別、圖像與語言和圖像生成等多個方向進行介紹。 今年2月,新智元曾經向大家介紹了近5年100篇被引用次數最多的深度學習論文,覆蓋了優化/訓練方法、無監督/生成模型、卷積網絡模型和圖像分割/目標檢測等十大子領域。上述的深度學習被引用最多的100篇論文是Github上的一個開源項目,社區的成員都可以參與。
  • 利用深度神經網絡 從低劑量PET演算全劑量影像
    打開APP 利用深度神經網絡 從低劑量PET演算全劑量影像 工程師飛燕 發表於 2018-06-12 09:18:00 為解決此問題,目前有跨國研究小組正在使用深度神經網絡(deep neural network)作為潛在解決方案。 據報導,該研究共同作者、雪梨大學(University of Sydney)的Luping Zhou表示,他們使用稱為3D條件生成對抗網絡(3D c-GANS)的機器學習算法,來從低劑量的PET影像預估高質量全劑量PET影像的結果。
  • 中國公司再獲KDD兩項最佳:松鼠AI獲研討會最佳論文&最佳學生論文
    其中,據已公開消息,KDD研究賽道共收到1179篇投稿,其中111篇被接收為Oral論文,63篇被接收為Poster論文,入選率14.8%。應用賽道收到700餘篇論文,其中大45篇被接收為Oral論文,100篇被接收為Poster論文,接收率20.7%。
  • 一文讀懂:圖卷積在基於骨架的動作識別中的應用
    在計算機視覺領域內,基於骨架的動作識別的定義為:對一副骨架序列進行模式判別,識別這副骨架語義上所代表的執行者所表達的動作。通常,獲取骨架點的方式有兩種:1.第二種方式是通過圖像配合骨架提取算法來從視頻中獲取骨架序列,但是提取到的骨架坐標是在圖像中的 2 維坐標。
  • 重磅| AI 第一高校 CMU 的「神經網絡 NLP」課,中英字幕獨家上線!
    這門課程就是:  CMU CS 11-747神經網絡自然語言處理課程(2019春季),也就是現在開源的最新版本。  如果你關注NLP領域,怎能錯過這一課程:《CS224n 斯坦福深度自然語言處理》,由史丹福大學出品,領銜主講人 Richard Socher 授權雷鋒字幕組譯製,讓你在了解豐富的自然語言處理基礎理論的同時,學會將運用神經網絡到實際問題中。