全方位解讀全景分割技術,曠視冠軍團隊最新分享

2021-01-10 雷鋒網

雷鋒網 AI 科技評論按,本文作者劉環宇,系浙江大學控制科學與工程自動化系碩士,曠視科技研究院算法研究員,全景分割算法 OANet 第一作者,研究方向包括全景分割、語義分割等。同時,他也是 2018 COCO + Mapillary 全景分割比賽曠視 Detection 組冠軍團隊成員。

本文原載於知乎,雷鋒網獲授權轉載。

前言

在計算機視覺中,圖像語義分割(Semantic Segmentation)的任務是預測每個像素點的語義類別;實例分割(Instance Segmentation)的任務是預測每個實例物體包含的像素區域。全景分割 [1] 最先由 FAIR 與德國海德堡大學聯合提出,其任務是為圖像中每個像素點賦予類別 Label 和實例 ID,生成全局的、統一的分割圖像。

接下來我們將全面解讀全景分割任務,下面這張思維導圖有助於大家整體把握全景分割任務特性:

全景分割解讀思維導圖

首先,我們將分析全景分割任務的評價指標及基本特點,並介紹目前最新的研究進展;然後介紹我們發表於 CVPR 2019 的工作 Occlusion Aware Network (OANet),以及曠視研究院 Detection 組參與的 2018 COCO Panoptic Segmentation 比賽工作介紹;最後對全景分割當前研究進行總結與分析。

任務與前沿進展解讀

全景分割任務,從任務目標上可以分為 object instance segmentation 子任務與 stuff segmentation 子任務。全景分割方法通常包含三個獨立的部分:object instance segmentation 部分,stuff segmentation 部分,兩子分支結果融合部分;通常 object instance segmentation 網絡和 stuff segmentation 網絡相互獨立,網絡之間不會共享參數或者圖像特徵,這種方式不僅會導致計算開銷較大,也迫使算法需要使用獨立的後處理程序融合兩支預測結果,並導致全景分割無法應用在工業中。

因此,可以從以下幾個角度分析與優化全景分割算法

(1)網絡框架搭建;

(2)子任務融合;

(3)全景輸出預測;

這三個問題分別對應的是全景分割算法中的三個重要環節,下面我們將分別分析這些問題存在的難點,以及近期相關工作提出的改進方法與解決方案。

全景分割評價指標

FAIR 研究團隊 [1] 為全景分割定了新的評價標準 PQ (panoptic segmentation) 、SQ ( segmentation quality)、RQ (recognition quality),計算公式如下:

PQ 評價指標計算公式

其中,RQ 是檢測中應用廣泛的 F1 score,用來計算全景分割中每個實例物體識別的準確性,SQ 表示匹配後的預測 segment 與標註 segment 的 mIOU,如下圖所示,只有當預測 segment 與標註 segment 的 IOU 嚴格大於 0.5 時,認為兩個 segment 是匹配的。

全景分割預測結果與真實標註匹配圖解 [1]

從上面的公式能夠看到,在預測與標註匹配後的分割質量 SQ 計算時,評價指標 PQ 只關注每個實例的分割質量,而不考慮不同實例的大小,即大物體與小物體的分割結果對最終的 PQ 結果影響相同。Yang et al. [6] 注意到在一些應用場景中更關注大物體的分割結果,如肖像分割中大圖的人像分割、自動駕駛中近距離的物體等,提出了 PC (Parsing Covering) 評價指標,計算公式如下:

PC 評價指標計算公式

其中,R, R' 分別表示對應類別的預測 segments 與真實 segments,|R| 表示對應類別的實例在真實標註中像素點數量,Ni 表示類別為 i 的真實標註像素點總和。通過對大的實例物體賦予更大的權重,使評價指標能夠更明顯地反映大物體的分割指標。

網絡框架搭建

由於 object instance segmentation 子任務與 stuff segmentation 子任務分別屬於兩個不同的視覺預測任務,其輸入數據及數據增強方式、訓練優化策略與方法、網絡結構與方法具有較大的不同,如何將兩個子任務融合併統一網絡結構、訓練策略,是解決該問題的關鍵。

FAIR 研究團隊提出了一種簡潔有效的網絡結構 Panoptic FPN [2],在網絡框架層面將語義分割的全卷積網絡(FCN)[3] 和實例分割網絡 Mask RCNN [4] 統一起來,設計了單一網絡同時預測兩個子任務,網絡結構如下圖所示。

Panoptic FPN 網絡框架圖

該網絡結構能夠有效預測 object instance segmentation 子任務與 stuff segmentation 子任務。在 Mask RCNN 網絡與 FPN [5] 的基礎上,作者設計了簡單而有效的 stuff segmentation 子分支:在 FPN 得到的不同層級的特徵圖基礎上,使用不同的網絡參數得到相同大小的特徵圖,並對特徵圖進行加法合併,最後使用雙線性插值上採樣至原圖大小,並進行 stuff 類別預測。

MIT 與谷歌等聯合提出 DeeperLab [6],使用 bottom-to-up 的方法,同時實現 object instance segmentation 子任務與 stuff segmentation 子任務,其網絡結構如下圖所示:

DeeperLab 網絡結構圖

該網絡包含了 encoder、decoder 與 prediction 三個環節,其中,encoder 和 decoder 部分對兩個子任務均是共享的,為了增強 encoder 階段的特徵,在 encoder 的末尾使用了 ASPP (Atrous Spatial Pyramid Pooling) 模塊 [7];而在 decoder 階段,首先使用 1×1 卷積對低層特徵圖與 encoder 輸出的特徵圖進行降維,並使用內存消耗較少的 space-to-depth [8, 9] 操作替代上採樣操作對低層特徵圖進行處理,從而將低層特徵圖(大小為原圖 1/4)與 encoder 輸出的特徵圖(大小為原圖 1/16)拼接起來;最後,使用兩層 7×7 的大卷積核增加感受野,然後通過 depth-to-space 操作降低特徵維度。

為了得到目標實例預測,作者採用類似 [10, 11, 12] 的使用基於關鍵點表示的方法,如下圖所示,在 object instance segmentation 子分支頭部,分別預測了 keypoint heatmap(圖 a)、long-range offset map(圖 b)、short-range offset map(圖 c)、middle-range offset map(圖 d)四種輸出,得到像素點與每個實例關鍵點之間的關係,並依此融合形成類別不可知的不同實例,最後得到全景分割的結果。

object instance segmentation 子分支頭部預測目標

子任務融合

雖然通過特徵共享機制與網絡結構設計,能夠將 object instance segmentation 子任務與 stuff segmentation 子任務統一起來,但是這兩個子分支之間的相互聯繫與影響並沒有得到充分的探究,例如:兩個子分支的任務是否能夠達到相互增益或者單向增益的效果?或者如何設計將兩個子分支的中間輸出或者預測關聯起來?這一部分問題我們可以統一將它稱作兩個子任務的相互提升與促進。

中科院自動化研究所提出了 AUNet [13],文中設計了 PAM(Proposal Attention Module)與 MAM(Mask Attention Module)模塊,分別基於 RPN 階段的特徵圖與 object instance segmentation 輸出的前景分割區域,為 stuff segmentation 提供了物體層級注意力與像素層級注意力,其網絡結構圖如下圖所示:

AUNet 網絡結構圖

為了使 object instance segmentation 的預測輸出與 stuff segmentation 預測輸出保持一致性,豐田研究院設計了 TASCNet [14],其網絡結構如下圖所示:

TASCNet 網絡結構圖

網絡首先將 object instance segmentation 子分支得到的實例前景掩膜區域,映射到原圖大小的特徵圖中,得到全圖尺寸下的實例前景掩膜區域,並與 stuff segmentation 預測的實例前景掩膜進行對比,使用 L2 損失函數最小化兩個掩膜的殘差。

全景輸出預測

Object instance segmentation 子分支與 stuff segmentation 子分支的預測結果在融合的過程中,一般通過啟發式算法(heuristic algorithm)處理相衝突的像素點,例如簡單地以 object instance segmentation 子分支的預測結果為準,並以 object instance segmentation 子分支的檢測框得分作為不同實例的合併依據。

這種方式依據簡單的先驗邏輯判斷,並不能較好地解決全景分割複雜的合併情況,因此,如何設計有效的模塊解決 object instance segmentation 子分支與 stuff segmentation 子分支到全景分割輸出的融合過程,也是全景分割任務中的重要問題。

Uber 與港中文聯合提出了 UPSNet [15],其網絡結構圖如下圖所示:

UPSNet 網絡結構圖

將 object instance segmentation 子分支與 stuff segmentation 子分支的輸出通過映射變換,可得到全景頭部輸出的特徵張量,該張量大小為 (Ninst+ Nstuff)×H×W,其中,N_{inst} 為動態變量,表示一張圖像中實例的數量,Nstuff 表示 stuff 類別個數,對於每張圖像其數值是相同的,下文使用 Xthing 和 Xstuff 分別表示這兩種特徵張量。此外,網絡對像素進行了未知類別的預測(Unknown Prediction),從而使得網絡能夠將部分像素點判斷為未知類別並在測試的時候進行忽略,避免做出錯誤的類別導致 PQ 指標下降。

在得到 object instance segmentation 子分支與 stuff segmentation 子分支的輸出後,經過如下圖所示的變換,映射成 Xthing 和 Xstuff。

panoptic segmentation head 示意圖

Xstuff 可以直接從不規則類別分割的輸出中提取,Xthing 中的第 i 個實例的掩膜區域可由 Xmaski + Ymaski 獲得,其中 Xmaski 表示第 i 個實例對應的真實標註框與標註類別在 stuff segmentation 子分支輸出截取的掩膜區域,Ymaski 表示第 i 個實例對應的 instance segmentation 子分支得到的掩膜區域映射到原圖的掩膜區域,最後使用標準的逐像素點的交叉熵損失函數對全景頭部輸出的張量進行監督訓練。

Occlusion Aware Network 專欄解讀

論文連結:

An End-to-End Network for Panoptic Segmentation

Motivation

在全景分割相關實驗中,我們發現,依據現有的啟發式算法進行 object instance segmentation 子分支與 stuff segmentation 子分支的預測合併,會出現不同實例之間的遮擋現象。為了解決不同實例之間的遮擋問題,我們提出了 Occlusion Aware Network(OANet),並設計了空間排序模塊(Spatial Ranking Module),該模塊能夠通過網絡學習得到新的排序分數,並為全景分割的實例分割提供排序依據。

網絡結構設計

我們提出的端到端的全景分割網絡結構如下圖所示,該網絡融合 object instance segmentation 子分支與 stuff segmentation 子分支的基礎網絡特徵,在一個網絡中同時實現全景分割的訓練與預測。在訓練過程中,對於 stuff segmentation 我們同時進行了 object 類別與 stuff 類別的監督訓練,實驗表明這種設計有助於 stuff 的預測。

OANet 網絡結構圖

採用一種類似語義分割的方法,我們提出一個簡單但非常有效的算法,稱作 Spatial Ranking Module,能夠較好地處理遮擋問題,其網絡結構如下所示:

Spatial Ranking Module 網絡結構圖

我們首先將輸入的實例分割結果映射到原圖大小的張量之中,該張量的維度是實例物體類別的數量,不同類別的實例分割掩膜會映射到對應的通道上。張量中所有像素點位置的初始化數值為零,實例分割掩膜映射到的位置其值設為 1;在得到該張量後,使用大卷積核 [16] 進行特徵提取,得到空間排序得分圖;最後,我們計算出每個實例對象的空間排序得分,如下所示:

這裡,Si; j; cls 表示類別為 cls 的、像素點(i; j)中的得分值,需要注意的是 Si; j; cls 已被歸一化為概率,mi; j 是掩膜像素點指示符,表示像素點(i; j)是否屬於實例,每個實例的空間排序得分由預測的掩碼區域所有像素點的排序分數平均得到,Pobjs 表示最終得到的每個實例的排序得分,並將此得分用於全景輸出。

如下圖所示,若使用目前通用的啟發式融合算法,即僅基於實例分割的檢測框的置信度作為遮擋處理依據,如圖所示,行人檢測框的置信度要明顯高於領帶檢測框的置信度,當兩個實例發生重疊時,領帶的實例會被行人實例遮擋;當加入空間排序得分模塊後,我們通過該模塊可以預測得到兩個實例的空間排序分數,依據空間排序分數得到的排序會更可靠,PQ 會有更大改善。

空間排序模塊流程示意圖

實驗分析

我們對 stuff segmentation 分支的監督信號進行了剝離實驗,如下表所示,實驗表明,同時進行 object 類別與 stuff 類別的監督訓練,能夠為 stuff segmentation 提供更多的上下文信息,並改進預測結果。

為了探究 object instance segmentation 子分支與 stuff segmentation 子分支的共享特徵方式,我們設計了不同的共享結構並進行實驗,如下表所示,實驗表明,共享基礎模型特徵與 FPN 結構的連接處特徵,能夠提高全景分割指標 PQ。

為了探究我們提出的 spatial ranking module 算法的有效性,我們在不同基礎模型下進行了實驗,如下表所示,其中,w/ spatial ranking module 表示使用我們提出的空間排序模塊得到的結果,從實驗結果中可以看到,空間排序模塊能夠在不同的基礎模型下大幅提高全景分割的評測結果。

為了測試不同卷積設置對學習處理遮擋的影響,進行了如下實驗,結果表明,提高卷積的感受野可以幫助網絡學習獲得更多的上下文特徵,並取得更好的結果。

下表是本文提出的算法與現有公開指標的比較,從結果中可以看到,本文提出的算法能夠取得最優的結果。

總結與分析

從上文的文獻分析來看,全景分割任務的不同重要問題均得到了廣泛探究,但是全景分割任務依然是有挑戰性、前沿的場景理解問題,目前仍存在一些問題需要進行探究:

第一,由於全景分割可通過分別預測實例分割子任務與不規則類別分割子任務、兩個子任務預測結果融合得到,整個算法流程中包含較多的細節與後處理操作,包括 segments 的過濾、啟發式融合算法、ignore 像素點的判斷等。這些細節對全景分割指標有較大的影響,在一定程度上也阻礙了不同算法的對比與評測;

第二,全景分割評測指標雖然能夠較好地評測全景分割中實例物體檢測準確度,以及實例物體與不規則類別的分割準確度,但是該評測指標更側重每個實例,並沒有關注每個實例之間的區別。文獻 [6] 提出了對大物體有更好的評測指標 PC (Parsing Covering),使得大物體的分割效果對最終的評測指標影響更大,在一些關注大物體的任務如肖像分割、自動駕駛中更為有效;

第三,全景分割中子任務的融合問題,目前研究依然較多地將全景分割看做是 object instance segmentation 與 stuff segmentation 兩個子任務的合集,如何從全局、統一的分割問題出發,針對性設計符合全景分割的統一網絡,具有重要的意義。

參考文獻

[1] Kirillov A, He K, Girshick R, et al. Panoptic segmentation[J]. arXiv preprint arXiv:1801.00868, 2018.

[2] Kirillov A, Girshick R, He K, et al. Panoptic Feature Pyramid Networks[J]. arXiv preprint arXiv:1901.02446, 2019.

[3] Long J, Shelhamer E, Darrell T. Fully convolutional networks for semantic segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2015: 3431-3440.

[4] He K, Gkioxari G, Dollár P, et al. Mask r-cnn[C]//Proceedings of the IEEE international conference on computer vision. 2017: 2961-2969.

[5] Lin T Y, Dollár P, Girshick R, et al. Feature pyramid networks for object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2017: 2117-2125.

[6] Yang T J, Collins M D, Zhu Y, et al. DeeperLab: Single-Shot Image Parser[J]. arXiv preprint arXiv:1902.05093, 2019.

[7] Chen L C, Papandreou G, Kokkinos I, et al. Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs[J]. IEEE transactions on pattern analysis and machine intelligence, 2018, 40(4): 834-848.

[8] Shi W, Caballero J, Huszár F, et al. Real-time single image and video super-resolution using an efficient sub-pixel convolutional neural network[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2016: 1874-1883.

[9] Sajjadi M S M, Vemulapalli R, Brown M. Frame-recurrent video super-resolution[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018: 6626-6634.

[10] Papandreou G, Zhu T, Chen L C, et al. PersonLab: Person pose estimation and instance segmentation with a bottom-up, part-based, geometric embedding model[C]//Proceedings of the European Conference on Computer Vision (ECCV). 2018: 269-286.

[11] Tychsen-Smith L, Petersson L. Denet: Scalable real-time object detection with directed sparse sampling[C] // Proceedings of the IEEE International Conference on Computer Vision. 2017: 428-436.

[12] Law H, Deng J. Cornernet: Detecting objects as paired keypoints [C] // Proceedings of the European Conference on Computer Vision (ECCV). 2018: 734-750.

[13] Li Y, Chen X, Zhu Z, et al. Attention-guided unified network for panoptic segmentation[J]. arXiv preprint arXiv:1812.03904, 2018.

[14] Li J, Raventos A, Bhargava A, et al. Learning to fuse things and stuff[J]. arXiv preprint arXiv:1812.01192, 2018.

[15] Xiong Y, Liao R, Zhao H, et al. UPSNet: A Unified Panoptic Segmentation Network[J]. arXiv preprint arXiv:1901.03784, 2019.

[16] Peng C, Zhang X, Yu G, et al. Large Kernel Matters--Improve Semantic Segmentation by Global Convolutional Network[C] // Proceedings of the IEEE conference on computer vision and pattern recognition. 2017: 4353-4361.

相關焦點

  • 全方位解讀全景分割技術, 曠視冠軍團隊最新分享
    同時,他也是 2018 COCO + Mapillary 全景分割比賽曠視 Detection 組冠軍團隊成員。本文原載於知乎,雷鋒網(公眾號:雷鋒網)獲授權轉載。全景分割解讀思維導圖首先,我們將分析全景分割任務的評價指標及基本特點,並介紹目前最新的研究進展;然後介紹我們發表於 CVPR 2019 的工作 Occlusion Aware Network (OANet
  • CVPR 2019 | 奪取6項冠軍的曠視如何築起算法壁壘
    最終結果,曠視在 iNaturalist 挑戰賽上比第二、三名領先了一個身位。在另一個細粒度圖像識別的比賽 Herbarium Challenge(植物標本挑戰賽)中,參賽團隊需要從植物標本中鑑定開花植物物種(Melastomes),數據來自紐約植物園。曠視擊敗了去年的冠軍、今年的第二名大連理工。
  • ECCV 2018 | 曠視科技包攬COCO+Mapillary四項世界第一,中國公司成...
    自 ICCV COCO+Places 2017 拿下 3 項第一,打破谷歌、微軟「霸權」,成為第一個問鼎 COCO 冠軍的中國公司之後,本次 ECCV COCO+Mapillary 2018 曠視科技參戰四項,拿下四冠,全戰皆勝突破自我再創新高,彰顯了在物體識別與檢測領域的絕對實力。
  • 全球人工智慧高被引學者排名公布 曠視孫劍、張祥雨榜上有名
    近日,上海交通大學Acemap團隊開發了一個基於度量的全球研究機構排名系統——AceRankings。根據在CCF推薦會議期刊發表論文被引用量,中國機構所屬的人工智慧領域學者有兩名被引次數過萬,其中一位是曠視研究院Base Model組負責人張祥雨,被引14748次。
  • 曠視科技 CSG 算法負責人姚聰:深度學習時代的文字檢測與識別技術...
    目前在曠視科技(Face++)擔任雲服務業務算法負責人,主持自然場景OCR、人臉活體檢測等技術的研發工作,為FaceID網際網路身份驗證服務、Face++開放平臺等提供算法支持。 公開課回放地址: http://www.mooc.ai/open/course/605 分享主題:深度學習時代的文字檢測與識別技術 分享提綱
  • 深度學習實踐課|曠視研究院 X 北大聯合出品,正式上線,免費報名!
    怎麼辦?曠視研究院為你支招! 今日,曠視研究院聯合北京大學數學科學學院機器學習實驗室開設的《深度學習實踐》全套課程(視頻+PPT,共計28課時)全面向社會免費開放!從深度學習基礎理論到計算機視覺實踐,由曠視首席科學家兼研究院長孫劍,及身經百戰的研發總監、資深研究員親身授課,真正將高水平深度學習課程帶給大家。
  • 玩轉AI實驗室 曠視科技人工智慧應用分享沙龍報名
    4月14日下午,國內領軍的機器視覺AI企業曠視科技Face++將聯合UCloud、圖普科技、活動行、IT大咖說、AI前線在北京中關村為你準備一場AI知識分享盛宴,敬請期待!在這裡,來自領軍的人工智慧企業大咖將探討三大AI熱點技術及應用——計算機視覺、圖像處理、雲計算。
  • 曠視AI天團線上開講《深度學習實踐》 快來get北大同款課程
    而曠視推出的這套《深度學習實踐》不僅是全中文課程,更有講課視頻、PPT等免費資源向全社會開放。具體來看,曠視出品的《深度學習實踐》課程總共十四節課,包含二十八課時,整套課程開始是數學基礎、神經網絡等基礎知識,後面則主要介紹了圖像分割、GAN等偏應用的內容,每個課時大約50分鐘,約24個小時就可以全部學完。學完整個課程,你就能對深度學習有著較為全面的了解。
  • 曠視科學家詳解AlphaGo Zero的偉大與局限
    日前,專注報導AI的量子位對曠視科技Face++首席科學家孫劍博士做了專訪,詳盡解讀了AlphaGo Zero的技術創新和應用局限。「人類太多餘了。」——面對無師自通碾壓一切前輩的AlphaGo Zero,柯潔說出了這樣一句話。
  • 曠視談移動機器人未來技術趨勢——單體智能與群體智能
    作為全球領先的人工智慧產品和解決方案公司,曠視進入供應鏈物聯網領域後便聚焦智慧物流及工業機器人業務,2020年初,機器人產品部更是獨立成為曠視的產品中臺之一,專注於機器人產品和關鍵物流設備的研發。進入智能製造、智慧物流的新時代,未來的移動機器人又有哪些發展趨勢?
  • ICCV 2019 Tiger Pose Detection 冠軍團隊技術分享
    團隊斬獲了 Tiger Pose Detection 賽道冠軍。我們可以通過這篇文章來了解一下 DeepBlueAI 團隊的解決方案。計算機視覺技術能夠從攝像機陷阱甚至無人機收集大量圖像數據,並使用此圖像構建從邊緣到雲的系統以保護野生生物;並可以應用於智能成像傳感器,以捕獲與野生動植物相關的圖像/視頻並監視野生動植物。
  • 深度| 曠視人工智慧算法平臺Brain++憑什麼在烏鎮網際網路大會獲獎?
    在此次大會的重頭戲「世界網際網路領先科技成果」發布活動上,人工智慧獨角獸曠視發布了名為Brain++的人工智慧算法平臺。據曠視聯合創始人兼首席技術官唐文斌介紹,Brain++是「一套端到端的AI算法平臺,目標是讓研發人員獲得從數據到算法產業化的一攬子技術能力,不用重複造輪子也可以推進AI快速落地。我們的Brain++還引入了AutoML技術,可以讓算法來訓練算法,讓AI來創造AI。」
  • ResNet成為AlphaGo Zero核心技術,孫劍詳解Zero的偉大與局限
    新智元採訪了深度殘差網絡ResNet作者之一,曠視科技Face++首席科學家孫劍博士。孫劍認為,AlphaGo Zero技術提升足夠偉大,但在真實技術落地過程中還有著眾多局限。孫劍分享了他的最新工作——更小更好的神經網絡,以及他的人才觀。在採訪中,孫劍還談到,人臉識別遠遠沒有被解決,「全世界的視覺研究人員一起來做都不夠」。
  • 曠視天元深度學習框架全球首發!3個實習生寫下一行代碼,27項全球AI...
    為了推動AI技術加速落地,讓更多的開發者和企業用戶使用 AI 「源力」,曠視於2019年開始籌備將Brain++最核心的深度學習框架開源,並為 MegEngine 起了一個中文名字——天元。這期間框架研發團隊可以說是經歷了一場浴火重生,需要把原來封裝好的代碼分解再重組,以適應廣大開源用戶的使用體驗。 授人以魚不如授人以漁。
  • 美圖宜膚全景式AI皮膚檢測儀驚豔亮相廣州美博會受熱捧
    本屆廣博會吸引了來自36個國家與地區的3800家參展品牌企業參展,其中以「讓用戶變得更美」為核心的美圖公司展出了其自主研發的全景式AI皮膚檢測儀美圖宜膚,一同展出的還有虛擬試妝產品美圖魔鏡。美圖宜膚和美圖魔鏡展區人頭攢動搭載業界領先的硬體配置+AI技術美圖宜膚是由美圖AI核心團隊「美圖影像實驗室(MTlab
  • 曠視論文三連發,揭秘COCO +Places 2017比賽獲獎模型
    在COCO Challenge 和 Places Challenge 兩個板塊的七項比賽中,曠視科技(Face++)拿下了 COCO Detection/Segmentation Challenge(檢測/分割)、COCO Keypoint Challenge(人體關鍵點檢測)、Places Instance Segmentation(實體分割)三個項目的冠軍。
  • 光學精密工程 | 實例特徵深度鏈式學習全景分割網絡
    116600)DOI:摘 要 針對全景分割中實例目標邊緣特徵提取不足導致目標邊界分割失效的問題,提出一種創新的實例特徵深度鏈式學習全景分割網絡。鏈式學習網絡由於具有良好的深度堆疊特性,可以獲取豐富的邊緣特徵信息,提高分割精度。在MS COCO和Cityscapes數據集上的實驗結果表明,本文提出的實例特徵深度鏈式學習全景分割網絡在分割精度上優於現存同類方法,與全景分割網絡常用的Mask RCNN實例分割結構相比,分割準確率最高提升了0.94%。
  • 專訪曠視副總裁顧亮:刷臉算法準確率98%或99%無關緊要
    Q3:當前純軟體和算法難以形成比較差異化的競爭,曠視如何為硬體產品做技術賦能?顧亮:從組織架構來講,曠視企業部(EBG)也是一個事業群的組織方式。在這個團隊裡,從軟硬體開發到解決方案到交付,到團隊的商務拓展,都是在我們一個團隊,為的就是能把客戶的需求快速響應。
  • 中國團隊首次在Nature子刊發布中國AI全景論文
    機器之心發布機器之心編輯部由 AI 青年科學家聯盟牽頭,15 位國內大學教授和企業界 AI 領軍人物合作在 Nature Machine Intelligence 上發布了 AI in China 的全景報告。
  • 曠視對話億陽紡織:AI如何讓紡織業更智慧?
    圖:億陽紡織與曠視、中國移動籤署合作協議籤約儀式之後,億陽紡織集團董事長劉諸輝做客曠視《行話短說》欄目,與曠視聯合創始人兼CTO唐文斌、曠視高級副總裁兼物流業務事業部總經理徐慶才一起,圍繞"智慧物流驅動傳統產業不傳統"這一話題,帶來了一場"AI+紡織工業"的交流和碰撞。交流要點如下:唐:一件衣服是如何誕生並來到我們身邊的?