谷歌開放Inception-ResNet-v2:一種新的圖像分類卷積神經網絡模型

2020-12-05 機器之心Pro

昨天,谷歌宣布開放 TF-Slim,這是一個在 TensorFlow 中定義、訓練、和評估模型的輕量軟體包,同時它還能對圖像分類領域中的數個有競爭力的網絡進行檢驗與模型定義。今天,谷歌再次宣布開放 Inception-ResNet-v2,一個在 ILSVRC 圖像分類基準上取得頂尖準確率的卷積神經網絡。文中提到的論文可點擊「閱讀原文」進行下載。

為了在該領域取得更多進展,今天我們非常高興的宣布開放 Inception-ResNet-v2,這是一個在 ILSVRC 圖像分類基準上取得頂尖準確率的卷積神經網絡。Inception-ResNet-v2 是早期發布的 Inception V3 模型的變體,該模型借鑑了微軟 ResNet 論文中的思路。具體內容可在我們的論文:Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning 中看到。

殘差連接(Residual connections )允許模型中進行 shortcut,也使得研究員能成功的訓練更深的神經網絡從而產生更好的性能。這也使得 Inception 塊的極度簡單化成為可能。下圖對比了這兩個模型架構:

Inception V3 圖解

Inception-ResNet-v2 的圖解

在第二張圖解的頂端,你可以看到全部的網絡拓展,可以注意到該網絡比之前的 Inception V3 要深得多。主圖的下面是更簡單閱讀同一網絡版本的方式,裡面重複的殘差塊是被壓縮了。注意,裡面的 Inception 塊被簡化的,比先前的 Inception V3 包含更少的並行塔 (parallel towers)。

Inception-ResNet-v2 架構比之前的前沿模型更加準確。下表報告了在基於單類圖像的 ILSVRC 2012 圖像分類基準上的 Top-1 和 Top-5 的準確度檢驗結果。此外,該新模型相比於 Inception V3 大約只需要兩倍的存儲和計算能力。

結果援引於 ResNet 論文

舉個例子,Inception V3 和 Inception-ResNet-v2 模型在識別犬種上都很擅長,但新模型做的更好。例如,舊模型錯誤報告右圖中的狗是阿拉斯加雪橇犬,而新的 Inception-ResNet-v2 模型準確識別了兩張圖片中的狗的種類。

阿拉斯加雪橇犬(左),西伯利亞愛斯基摩狗(右)

為了讓人們能立即進行試驗,我們也發布了 Inception-ResNet-v2 模型的一個預訓練案例作為 TF-Slim 圖像模型庫的一部分。

如果想進行試驗,這是如何訓練、評估或微調網絡的指導:https://github.com/tensorflow/models/blob/master/slim/README.md

本文選自Google Research,作者: Alex Alemi,機器之心編譯;

產品建議及投訴請聯繫:shoujibaidu@baidu.com

相關焦點

  • 深度學習之卷積神經網絡經典模型
    AlexNet模型AlexNet簡介2012年Imagenet圖像識別大賽中,Alext提出的alexnet網絡模型一鳴驚人,引爆了神經網絡的應用熱潮,並且贏得了2012屆圖像識別大賽的冠軍,這也使得卷積神經網絡真正意義上成為圖像處理上的核心算法。
  • 輕鬆學Pytorch-使用ResNet50實現圖像分類
    Hello大家好,這篇文章給大家詳細介紹一下pytorch中最重要的組件torchvision,它包含了常見的數據集、模型架構與預訓練模型權重文件、常見圖像變換、計算機視覺任務訓練。可以是說是pytorch中非常有用的模型遷移學習神器。本文將會介紹如何使用torchvison的預訓練模型ResNet50實現圖像分類。
  • 告別調參煉丹,谷歌「權重無關」神經網絡開源了!
    當訓練神經網絡完成一項給定任務時,無論是圖像分類還是強化學習,通常都需要調優與網絡中每個連接相關的一組權重。另一種已經取得實質性進展的成功的神經網絡創建方法是神經架構搜索,它利用人工設計的組件(如卷積網絡組件或transformer blocks)來構建神經網絡架構。
  • PyTorch可視化理解卷積神經網絡
    如今,機器已經能夠在理解、識別圖像中的特徵和對象等領域實現99%級別的準確率。生活中,我們每天都會運用到這一點,比如,智慧型手機拍照的時候能夠識別臉部、在類似於谷歌搜圖中搜索特定照片、從條形碼掃描文本或掃描書籍等。造就機器能夠獲得在這些視覺方面取得優異性能可能是源於一種特定類型的神經網絡——卷積神經網絡(CNN)。
  • 解讀| 如何用進化方法優化大規模圖像分類神經網絡?
    作者:Angulia Chao參與:Joni、侯韻楚、高振讓機器具備生物一樣的進化能力一直是計算機科學的一個熱門研究領域,今年三月份,谷歌的多位研究者提出了一種圖像分類器的大規模進化方法,機器之心也曾報導過這項研究,參閱:《深度 | 谷歌和 OpenAI 新研究:如何使用達爾文進化論輔助設計人工智慧算法?》。
  • 谷歌開源語義圖像分割模型:該領域當前最優模型
    分配這些語義標籤的時候需要精準定位目標的輪廓,因此相比其他的視覺實體識別任務(如圖像級分類或邊界框級檢測等),該任務需要更高的定位準確率。今天,谷歌開源了其最新、性能最優的語義圖像分割模型 DeepLab-v3+ [1],該模型使用 TensorFlow 實現。
  • 人工智慧之卷積神經網絡(CNN)
    現在,CNN已經成為眾多科學領域的研究熱點之一,特別是在模式分類領域,由於該網絡避免了對圖像的複雜前期預處理,可以直接輸入原始圖像,因而得到了更為廣泛的應用。Neural Network)是一種前饋神經網絡,它的人工神經元可以響應一部分覆蓋範圍內的周圍單元,可以應用於語音識別、圖像處理和圖像識別等領域。
  • 從特徵檢測器到視覺轉換器:卷積神經網絡的時代到此結束了嗎?
    圖源:unsplash近十年來,卷積神經網絡一直在全球計算機視覺研究領域發揮著主導作用。但研究者們正在提出一種新方法,想要利用轉換器的功能賦予圖像更深層的意義。轉換器最初是為自然語言處理任務而設計的,主攻神經網絡機器翻譯。後來,谷歌研究院的阿列克謝·多索維斯基(Alexey Dosovitskiy)、盧卡斯·拜爾(Lucas Beyer)等人撰寫了一篇題目為《一幅圖像值得16x16個字符:大規模用於圖像識別的轉換器》的論文,提出了一種名為視覺轉換器(ViT)的架構,該架構可通過轉換器處理圖像數據。
  • 程式設計師1小時完成深度學習Resnet,谷歌tensorflow多次圖像大賽冠軍
    編譯環境:Python3.6TensorFlow-gpu 1.5.0Pycharm數 據 集:MNIST一、結構分析關於ResNet的來源我就不進行贅述了,相信讀者都對其或多或少有一定的了解,這個包攬各大圖像識別賽事冠軍的模型究竟有什麼與眾不同?
  • 深度卷積神經網絡CNNs的多GPU並行框架 及其在圖像識別的應用
    將深度卷積神經網絡(Convolutional Neural Networks, 簡稱CNNs)用於圖像識別在研究領域吸引著越來越多目光。由於卷積神經網絡結構非常適合模型並行的訓練,因此以模型並行+數據並行的方式來加速Deep CNNs訓練,可預期取得較大收穫。
  • AutoML構建加速器優化首嘗試,谷歌發布EfficientNet-EdgeTPU
    選自Googleblog機器之心編譯參與:杜偉、李亞洲今年 5 月份,谷歌提出了一種利用複合係數統一縮放模型所有維度的新型模型縮放方法,並基於這種模型縮放方法又推出了一種新型 CNN 網絡 EfficientNet。
  • 谷歌大腦發現神經網絡「牛頓法」:網絡足夠寬就能簡化成線性模型
    曉查 發自 凹非寺 量子位 報導 | 公眾號 QbitAI來自谷歌大腦的研究者發現,對於寬神經網絡,深度學習動態可以大大簡化,並且在無限寬度限制條件下,它們由網絡初始參數的一階泰勒展開的線性模型所決定。所謂的無限寬度(infinite width),指的是完全連接層中的隱藏單元數,或卷積層中的通道數量有無窮多。
  • AI入門:卷積神經網絡
    講到AI不得不講深度學習,而講到深度學習,又不能不講卷積神經網絡。如果把深度學習比作中國的網際網路界,那捲積神經網絡和循環神經網絡就是騰訊和阿里級別的地位。今天我們主要討論的卷積神經網絡,到底卷積神經網絡能解決什麼問題,它的結構是怎樣的?是怎麼學習的?應用在哪些具體的產品上?本文將為大家一一解答。
  • 如何利用PyTorch中的Moco-V2減少計算約束
    注意:在之前的一篇博文中,我們在PyTorch中實現了SimCLR框架,它是在一個包含5個類別的簡單數據集上實現的,總共只有1250個訓練圖像。數據集這次我們將在Pytorch中在更大的數據集上實現Moco-v2,並在Google Colab上訓練我們的模型。
  • 深度卷積神經網絡應用於量子計算機
    另一方面,機器學習,尤其是神經網絡,正在粗略地使用向量和矩陣來理解或處理數據。量子機器學習(QML)旨在使用量子系統對向量進行編碼,並使用新的量子算法對其進行學習。一個關鍵的概念是在許多矢量上使用量子疊加,我們可以同時處理它們。
  • ResNet壓縮20倍,Facebook提出新型無監督模型壓縮量化方法
    概述 本文旨在解決類似 ResNet [1] 這類卷積網絡的模型過大,推理速度慢的問題。相比較之前的量化方法,本文提出來一個向量量化方法,其主要思想是保存網絡重建之後的輸出而不是原始無壓縮網絡的權重。本文提出的方法無需標註數據,並且使用對 CPU 推理友好的字節對齊碼本。
  • ResNet——CNN經典網絡模型詳解(pytorch實現)
    建議大家可以實踐下,代碼都很詳細,有不清楚的地方評論區見~1、前言ResNet(Residual Neural Network)由微軟研究院的Kaiming He等四名華人提出,通過使用ResNet Unit成功訓練出了152層的神經網絡,並在ILSVRC2015比賽中取得冠軍,在top5上的錯誤率為3.57%,同時參數量比VGGNet低,效果非常突出
  • 機器視角:長文揭秘圖像處理和卷積神經網絡架構
    今天,我將與你共享我的心得,展示我如何上手卷積神經網絡並最終弄明白了它。我將做一個通盤的展示,從而使你對 CNN 的工作機制有一個深入的了解。在本文中,我將會討論 CNN 背後的架構,其設計初衷在於解決圖像識別和分類問題。同時我也會假設你對神經網絡已經有了初步了解。目錄1.機器如何看圖?