谷歌提出移動端AutoML模型MnasNet:精度無損速度更快

2020-12-06 機器之心Pro

選自Google AI Blog,作者: Mingxing Tan,機器之心編譯。

目前開發者可以使用非常多的移動端 CNN 架構,也可以在機器上訓練新穎的視覺模型並部署到手機端。但各種各樣的移動端任務可能並不能藉助已有的 CNN 架構達到非常好的效果,因此谷歌近日將神經架構搜索方法引入了輕量級的 CNN 網絡,並提出基於強化學習的 MnasNet 以自動設計移動端模型。

卷積神經網絡(CNN)已被廣泛用於圖像分類、人臉識別、目標檢測和其他領域。然而,為行動裝置設計 CNN 是一項具有挑戰性的工作,因為移動端模型需要體積小、速度快,還要保持精準。儘管人們已經做了大量努力來設計和改進移動端模型,如 MobileNet 和 MobileNetV2,但手動創建高效模型仍然是一項挑戰,因為要考慮的因素太多。從最近 AutoML 神經架構搜索方面的進展受到啟發,我們在想移動端 CNN 模型的設計是否也能受益於 AutoML 方法。

在《MnasNet: Platform-Aware Neural Architecture Search for Mobile》一文中,我們探索了一種使用強化學習設計移動端模型的自動化神經架構搜索方法。為了處理移動端速度限制,我們明確地將速度信息納入搜索算法的主要獎勵函數中,以便搜索可以識別一個在準確率和速度之間實現良好平衡的模型。如此,MnasNet 能夠找到運行速度比 MobileNet V2(手工製造的最先進水平)快 1.5 倍、比 NASNet 快 2.4 倍的型號,同時達到同樣的 ImageNet top-1 準確率。

不同於以前的架構搜索方法,在這種方法中,模型速度是通過另一個替代品(如 FLOPS)來考慮的。我們的方法通過在特定平臺上執行模型來直接測量模型速度,例如本研究中使用的 Pixel 手機。通過這種方式,我們可以直接測量現實世界中可以實現的指標,因為每種類型的行動裝置都有自己的軟體和硬體特性,並且可能需要不同的架構來在準確率和速度之間做出最佳權衡。

我們方法的總體流程主要包括三個部分:一個基於 RNN 的學習和採樣模型架構控制器,一個建立和訓練模型以獲得準確率的訓練器,以及一個使用 TensorFlow Lite 測量真實手機上模型速度的推理引擎。我們制定了一個多目標優化問題,旨在實現高準確率和高速,並利用帶有定製獎勵函數的強化學習算法來尋找帕累託最優解 (例如,具有最高準確率但速度不變的模型)。

移動端自動神經架構搜索方法的整體流程圖

為了在搜索靈活性與搜索空間大小之間取得適當的平衡,我們提出了一種新型因子化的層級搜索空間,它將卷積神經網絡分解為一個由模塊組成的序列,然後使用層級搜索空間決定每一個模塊的層級結構。通過這種方式,我們的方法允許不同的層級使用不同的運算與連接。同時,我們強制每一個模塊共享相同的結構,因此與逐層搜索相比搜索空間要顯著地小几個數量級。

我們的 MnasNet 網絡從新型因子化層級搜索空間中採樣,上圖展示了網絡架構中的不同層級。

我們在 ImageNet 分類和 COCO 目標檢測任務上測試了該方法的有效性。我們的實驗在典型的移動端資源下實現了新的當前最優準確度。特別地,下圖展示了該網絡在 ImageNet 上的結果。

ImageNet 準確率和推理延遲的對比。

在相同的準確率下,MnasNet 模型的速度比手工調參得到的當前最佳模型 MobileNet V2 快 1.5 倍,並且比 NASNet 快 2.4 倍,它也是使用架構搜索的算法。在應用壓縮和激活(squeeze-and-excitation)優化方法後,MnasNet+SE 模型獲得了 76.1% 的 ResNet 級別的 top-1 準確率,其中參數數量是 ResNet 的 1/19,且乘法-加法運算量是它的 1/10。在 COCO 目標檢測任務上,我們的模型族獲得了比 MobileNet 更快的速度和更高的準確率,並在 1/35 的計算成本下獲得了和 SSD300 相當的準確率。

我們很高興看到該自動化架構搜索方法可以在多個複雜行動裝置視覺任務上取得當前最佳性能。在未來,我們計劃把更多的運算和優化方法整合到搜索空間中,並將其應用到更多的行動裝置視覺任務上,例如語義分割。

相關焦點

  • Google提出移動端新SOTA模型MixNets:用混合深度卷積核提升精度
    特別是MixNet-L模型在傳統的移動端設備條件(<600M FLOPS)下達到了最新的SOTA結果,ImageNet top-1精度為78.9%。論文地址:https://arxiv.org/pdf/1907.09595v3.pdf代碼地址:https://github.com/tensorflow/tpu/tree/master/models/official/mnasnet/mixnet
  • 性能超越谷歌!依圖團隊提出新一代移動端網絡架構MobileNeXt
    ,但是大型神經網絡在移動端的性能制約了AI在移動端的推廣。最近,依圖團隊發表在ECCV的一篇論文,提出了新一代移動端神經網絡架構MobileNeXt,大大優於谷歌的MobileNet、何愷明團隊提出的ResNet等使用倒殘差結構的模型,為移動端算力帶來了新的突破。
  • AutoML構建加速器優化首嘗試,谷歌發布EfficientNet-EdgeTPU
    選自Googleblog機器之心編譯參與:杜偉、李亞洲今年 5 月份,谷歌提出了一種利用複合係數統一縮放模型所有維度的新型模型縮放方法,並基於這種模型縮放方法又推出了一種新型 CNN 網絡 EfficientNet。
  • 深度學習預測RNA二級結構,螞蟻金服提出端到端模型E2Efold
    但以往關於 RNA 二級結構的計算預測模型存在著固有約束條件,此前處於主導地位的基於 DP 的算法將搜索空間限制為嵌套結構,如此一來,一些包含假結結構的 RNA 二級結構的具有重要生物學意義的有效信息可能會排除在外。論文地址:https://openreview.net/forum?
  • 更快的計算,更高的內存效率:PyTorch混合精度模型AMP介紹
    作者:Rahul Agarwaldeephub翻譯組:孟翔傑您是否知道反向傳播算法是Geoffrey Hinton在1986年的《自然》雜誌上提出的?同樣的,卷積網絡由Yann le cun於1998年首次提出,並進行了數字分類,他使用了單個卷積層。
  • 谷歌AutoML新進展,進化算法加持,僅用數學運算自動找出ML算法
    谷歌 Quoc V. Le 等人提出了 AutoML-Zero 方法。AutoML-Zero 旨在通過從空程序或隨機程序開始,僅使用基礎數學運算,來自動發現能夠解決機器學習任務的電腦程式。其目標是同時搜索 ML 算法的所有屬性,包括模型結構和學習策略,同時將人類偏見最小化。
  • 谷歌開源語義圖像分割模型:該領域當前最優模型
    今天,谷歌開源了其最新、性能最優的語義圖像分割模型 DeepLab-v3+ [1],該模型使用 TensorFlow 實現。DeepLab-v3+ 模型建立在一種強大的卷積神經網絡主幹架構上 [2,3],以得到最準確的結果,該模型適用於伺服器端的部署。
  • 揭開谷歌 AutoML 的神秘面紗
    在谷歌I/O大會上發布的博客聲明中,谷歌執行長Sundar Pichai寫道:「這就是我們創建AutoML方法的原因,有了它,神經網絡也可以設計神經網絡。」;Google AI研究人員Barret Zoph和Quoc Le寫道:「通過我們的方法(我們稱之為「AutoML」)中,神經網絡控制器可以提出一個「子」模型架構...」
  • KDD 2018:滴滴提出WDR模型顯著提升ETA預測精度
    四篇論文分別是(文末附論文打包下載地址)Kaixiang Lin (Michigan State University); Renyu Zhao (AI Labs, Didi Chuxing); Zhe Xu (AI Labs, Didi Chuxing); Jiayu Zhou (Michigan State University)Yaguang Li (
  • TPU加AutoML:50美元快速訓練高效的ImageNet圖像分類網絡
    Jeff Dean 展示的兩個基準測試都是 DAWNBench 上的結果,DAWNBench 是斯坦福發布的一套基準測試,主要關注於端到端的深度學習訓練和推斷過程。雖然目前很多基準僅關注於模型精度,但 DAWNBench 格外關注計算時間和成本,它們是深度模型所需的關鍵資源。
  • 精度45.9%,推理速度72.9FPS,百度飛槳推出工業級目標檢測模型
    而在該精度下,其推理速度在V100上達到了72.9 FPS。也就是說,它在精度和預測速度都超越原生的YOLOv4,並且體積更小,實打實的成為工業應用場景最實用目標檢測模型。而這次華麗變身後的YOLOv3,也被正式命名為——PP-YOLO!
  • 支持移動GPU、推斷速度提升4-6倍
    乾明 發自 凹非寺量子位 出品 | 公眾號 QbitAITensorFlow用於行動裝置的框架TensorFlow Lite發布重大更新,支持開發者使用手機等行動裝置的GPU來提高模型推斷速度。在進行人臉輪廓檢測的推斷速度上,與之前使用CPU相比,使用新的GPU後端有不小的提升。
  • 谷歌AutoML創造者Quoc Le:未來最好的人工智慧模型將由機器生成
    2011 年在史丹福大學讀博時,Le 和他的老師吳恩達以及谷歌大腦的研究人員一起,基於千萬張 YouTube 圖像開發了一個能夠識別貓的無監督學習系統;2014 年,他將深度學習技術應用在自然語言理解任務上,提出了能將文本轉換為向量表徵、基於循環神經網絡的 Seq2Seq 學習模型,將機器翻譯的前沿水平又向前推進了一步
  • 谷歌大腦提出AutoML-Zero,只會數學運算就能找到AI算法|開源
    接著谷歌又推出了AlphaGo Zero,只讓AI知道圍棋規則,從零開始學下棋,結果再次登上棋藝頂峰。AI既然能從零學習圍棋,是否可以從零開始摸索機器學習算法?當然可以,谷歌大腦團隊最新的研究成果已經做到了。谷歌將這種技術稱之為AutoML-Zero,意為「從零開始的自動機器學習」,已經在GitHub開源,並在Arxiv上提交了論文。
  • 網站不支持移動端適配,則會影響谷歌搜索排名
    搜尋引擎老大哥,谷歌最近在海外的站長大會上發布了一條新規,要求在谷歌上收錄的網站要能夠支持移動端適配,即用戶訪問的頁面和根據PC或移動端的情況進行自適應,從用戶體驗的角度體驗的角度出發是對的,而且若PC站點沒有做移動端適配的話,估計將減少收錄,作為關鍵詞排名的因素之一。
  • 谷歌EfficientNet縮放模型,PyTorch實現出爐,登上GitHub熱榜
    郭一璞 發自 凹非寺 量子位 報導 | 公眾號 QbitAI谷歌上個月底提出的EfficientNet開源縮放模型,在ImageNet的準確率達到了84.1%,超過Gpipe,已經是當前的state-of-the-art了。
  • 谷歌大腦提出NAS-FPN:一種學會自動架構搜索的特徵金字塔網絡
    在這篇論文中,谷歌大腦的 Quoc V. Le 等研究者提出了一種新的架構搜索方法 NAS-FPN。他們希望藉助神經架構搜索的優勢,並學習更好的目標檢測特徵金字塔網絡架構。目前 NAS-FPN 實現了優於當前最佳目標檢測模型的準確率和延遲權衡目標檢測中的神經架構搜索特徵金字塔網絡(FPN)是目標檢測中生成金字塔形狀特徵表示的代表性模型架構之一。
  • 推斷速度達seq2seq模型的100倍,谷歌開源文本生成新方法LaserTagger
    來源:機器之心作者:Eric Malmi等機器之心編譯參與:魔王、杜偉使用 seq2seq 模型解決文本生成任務伴隨著一些重大缺陷,谷歌研究人員提出新型文本生成方法 LaserTagger,旨在解決這些缺陷,提高文本生成的速度和效率。
  • 谷歌通過深度度量學習,提出新的語義實例分割方法
    雷鋒網了解到,谷歌研究院近日與UCLA合作,提出了一種新的語義實例分割方法:首先計算兩個像素屬於同一對象的可能性,然後將相似的像素分組在一起。其中,相似性度量是基於深度,完全卷積的嵌入模型,而分組方法是基於選擇所有與一組「種籽點」足夠相似的點,這個選擇模型是一個深度的、完全卷積的評分模型。
  • 谷歌大腦重磅研究:快速可微分排序算法,速度快出一個數量級
    現在,谷歌大腦針對這一問題,提出了一種快速可微分排序算法,並且,時間複雜度達到了O(nlogn),空間複雜度達為O(n)。速度比現有方法快出一個數量級!代碼的PyTorch、TensorFlow和JAX版本即將開源。