ECCV 2020 | 騰訊優圖8篇論文入選,涵蓋目標跟蹤、行人重識別...

2020-12-15 極客公園

近日,計算機視覺方向的三大國際頂級會議之一的ECCV 2020公布論文獲獎結果。本次ECCV 2020有效投稿5025篇,最終被接受發表論文1361篇,錄取率為27%,較上屆有所下降。其中,oral的論文數為104篇,佔提交總量的2%;spotlight的數目為161篇,佔提交總量的5%;其餘論文均為poster。

ECCV (European Conference on Computer Vision,即歐洲計算機視覺國際會議)是國際頂尖的計算機視覺會議之一,每兩年舉行一次。隨著人工智慧的發展,計算機視覺的研究深入和應用迅速發展,每次舉行都會吸引大量的論文投稿,而今年ECCV的投稿量更是ECCV 2018的兩倍還多,創下歷史新高。在競爭越來越激烈的情況下,本次ECCV 騰訊優圖實驗室共入選8篇論文,涵蓋目標跟蹤、行人重識別、人臉識別、人體姿態估計、動作識別、物體檢測等熱門及前沿領域,再次展示了騰訊在計算機視覺領域的科研及創新實力。

以下為部分騰訊優圖入選ECCV 2020的論文:

01

鏈式跟蹤器:基於目標對回歸的端到端聯合檢測跟蹤算法

Chained-Tracker: 

Chaining Paired Attentive Regression Results for 

End-to-End Joint Multiple-Object Detection and Tracking

現有的多目標跟蹤(MOT)算法大多是基於傳統的先檢測後跟蹤的框架,包含目標檢測、特徵提取、目標關聯這三個模塊,還有少數MOT算法將三個模塊中的某兩個融合實現部分端到端跟蹤,本文提出了一種鏈式跟蹤算法Chained-TrackerCTracker業內首創兩幀輸入模式,可將上述三個模塊集成至單個網絡中,實現端到端聯合檢測跟蹤,是第一個將跟蹤算法中的目標關聯問題轉化為兩幀檢測框對(Box pair)回歸問題的算法。網絡的輸入為相鄰兩幀,稱之為節點(Chain node),網絡的輸出為表示同一個目標在相鄰兩幀中的檢測框對,相鄰節點的檢測框對可通過共同幀關聯。為進一步提高跟蹤效果,我們還設計了聯合注意力模塊來突出檢測框對回歸中的有效信息區域,包括目標分類分支中的目標註意力機制和身份驗證分支中的身份注意力機制。在不引入額外數據的情況下,CTracker在MOT16和MOT17上均獲得了SOTA的結果,MOTA分別為67.6和66.6。

算法框架圖:

網絡結構圖:

02

請別來打擾我:在其他行人幹擾下的行人重識別

Do Not Disturb Me:

Person Re-identification Under the Interference of Other Pedestrians

傳統的行人重識別假設裁剪的圖像只包含單人。然而,在擁擠的場景中,現成的檢測器可能會生成多人的邊界框,並且其中背景行人佔很大比例,或者存在人體遮擋。從這些帶有行人幹擾的圖像中提取的特徵可能包含幹擾信息,這將導致錯誤的檢索結果。為了解決這一問題,本文提出了一種新的深層網絡(PISNet)。PISNet首先利用Query圖片引導的注意力模塊來增強圖片中目標的特徵。此外,我們提出了反向注意模塊多人分離損失函數促進了注意力模塊來抑制其他行人的幹擾。我們的方法在兩個新的行人幹擾數據集上進行了評估,結果表明,該方法與現有的Re-ID方法相比具有更好的性能。

03

通過分布蒸餾損失改善人臉識別中的困難樣本

Improving Face Recognition 

from Hard Samples via Distribution Distillation Loss

目前基於深度學習的人臉識別算法已經可以較好的處理簡單樣本,但對於困難樣本(低解析度、大姿態等)仍表現不佳。目前主要有兩種方式嘗試解決這一問題。第一種方法是充分利用某種需要處理的人臉畸變的先驗信息,設計特定的結構或損失函數。這種方式通常不能方便地遷移到其他畸變類型。第二種方法是通過設計合適的損失函數,減小類內距離,增大類間距離,得到更具辨別能力的人臉特徵。這種方式一般在簡單和困難樣本上存在明顯的性能差異。為了提升人臉識別模型在困難樣本上的性能,我們提出了一種基於分布蒸餾的損失函數。具體來說,我們首先通過一個預訓練的識別模型構造兩種相似度分布(從簡單樣本構造的Teacher分布和從困難樣本的Student分布),然後通過分布蒸餾損失函數使Student分布靠近Teacher分布,從而減小Student分布中的同人樣本和非同人樣本的相似度重合區域,提高困難樣本的識別性能。我們在常用的大規模人臉測試集和多個包含不同畸變類型(人種、解析度、姿態)的人臉測試集上進行了充分的實驗,驗證了方法的有效性。

04

基於對抗語義數據增強的人體姿態估計

Adversarial Semantic Data Augmentation 

for Human Pose Estimation

人體姿態估計主要目的是定位人體的關鍵點坐標。目前的SOTA方法在嚴重遮擋、旁人幹擾、對稱相似三種困難場景中表現仍有待提升。一個主要的原因是這三種困難場景的訓練數據較少。之前的方法主要是利用scale、rotation、translation等global spatial transform的方法去進行訓練數據增強。這類常規的數據增強方法並不能對上述三種困難場景有提升和幫助。本文提出了一種Adversarial Semantic Data Augmentation(對抗語義數據增強方法)。該方法把人體分成多個有語義的部件,並對這些人體部件在不同的細粒度上進行重組,從而去模擬出上述三種困難場景。在重組人體部件的過程中,有多個空間變換參數來調節每一個人體部件,從而靈活的組合旁人遮擋、手臂交叉、複雜動作等情況。為了讓人體姿態估計網絡能更好的學習到對這些困難場景的魯棒性,我們設計了另外一個生成網絡(G)用於控制每個人體部件的空間變換參數,人體姿態估計網絡作為判別網絡(D)從G生成的困難樣本裡面去學習。G和D在訓練過程中互相對抗。G網絡不斷的生成各種困難樣本,以迷惑人體姿態估計網絡。而人體姿態估計網絡從這個對抗過程中也不斷提升了自己對困難場景的預測準確性。

05

基於特徵解耦的人臉活體檢測

Face Anti-Spoofing via 

Disentangled Representation Learning

活體檢測技術用於在身份驗證場景中確定對象是否為真人,以防禦照片、面具、屏幕翻拍等多種方式的攻擊,保證人臉識別安全。目前基於RGB圖像的活體檢測方法往往從圖片中直接提取判別性特徵,但該特徵可能包含了光照、背景或ID等與活體任務無關的信息,影響方法實際使用的泛化性。針對泛化性問題,本文從特徵解耦角度出發,提出以下創新點:

1、設計解耦框架將圖片特徵解耦成活體相關特徵和活體無關特徵兩部分,並利用活體相關特徵進行真假判別。

2、結合底層紋理特徵約束和高層深度特徵約束,進一步促進活體特徵的解耦。

3、探索並展示了影響活體特徵的因素,例如攻擊介質、採集設備等,進一步深入理解活體任務本質。

本文在多個學術數據集上證明了基於輔助約束的特徵解耦方法在活體任務上的有效性。

06

SSCGAN:基於風格跳躍連接的人臉屬性編輯

SSCGAN:

Facial Attribute Editing via Style Skip Connections

現有的人臉屬性編輯方法通常採用編碼器-解碼器結構,其中屬性信息被表達成一個one-hot向量然後與圖像或特徵層拼接起來。然而,這樣的操作只學到了局部的語義映射而忽略了全局的人臉統計信息。我們在本文提出通過修改通道層面的全局信息(風格特徵)來解決這個問題。我們設計了一個基於風格跳躍連接的生成對抗網絡(SSCGAN)來實現精準的人臉屬性操縱。具體來說,我們在編碼器和解碼器之間的多個風格跳躍連接路徑上注入目標屬性信息。每個連接會抽取編碼器中的隱藏層的風格特徵,然後做一個基於殘差的映射函數來將這個風格特徵遷移到目標屬性的空間。接下來,這個被調整過的風格特徵可以用作輸入來對解碼器的隱藏層特徵做實例歸一化。此外,為了避免空間信息的損失(比如頭髮紋理或瞳孔位置),我們進一步引入了基於跳躍連接的空間信息傳遞模塊。通過對全局風格和局部空間信息的操縱,本文提出的方法可以得到在屬性生成準確率和圖像質量上都更好的結果。實驗結果表明本文的算法和現有的所有方法相比都有優越性。

07

基於時序性差異表徵的動作識別

Temporal Distinct Representation Learning 

for Action Recognition

2D卷積神經網絡已經廣泛應用於圖像識別當中並取得成功,研究人員現在在嘗試利用2D卷積神經網絡來對視頻進行建模。然而利用2D卷積的局限性在於視頻的不同幀共享參數,會導致重複、冗餘的信息提取,尤其是空間語義層面會忽略幀間的重要變化。在這篇工作中,我們嘗試通過兩種方式來解決這一問題:

是設計了一種通道層面的序列化注意力機制PEM來逐步地激活特徵中有區分性的通道,從而避免信息的重複提取;

是設計了一種時序多樣性損失函數(TD Loss)來強制卷積核關注並捕捉幀間的變化而不是表觀相似的區域。

在時序性較強的數據集something-something V1和V2上,我們的方法取得了SOTA效果;另外在時序性較弱但規模較大的Kinetics數據集上,我們的方法也取得了可觀的精度提升。

結構示意圖:

效果示意圖:

08

物體檢測中檢測框學習的深入優化

Dive Deeper Into Box for Object Detection

無錨框檢測模型現已成為具有最高檢測水準的最新方法,歸因於準確的邊界框估計。然而無錨框檢測在邊界定位上還有不足,對於具有最高置信度的邊界框仍有很大的改進空間。在這項工作中,我們採用了一種邊界重排序的邊界框重組策略,使得在訓練中能夠產生更優的邊界框, 從而對物體有更好的貼合。此外,我們觀察到現有方法在邊界框分類與位置回歸學習中存在語義不一致性,所以我們對訓練過程中分類與回歸目標進行了篩選,從而給出了語義一致性的學習目標。實驗證明我們的優化方法上對於檢測性能的提升十分有效。

方法示意圖

相關焦點

  • 騰訊優圖8篇論文入選,涵蓋目標跟蹤、行人重識別、人臉識別等領域
    近日,計算機視覺方向的三大國際頂級會議之一的ECCV 2020公布論文獲獎結果。本次ECCV 2020有效投稿5025篇,最終被接受發表論文1361篇,錄取率為27%,較上屆有所下降。
  • 騰訊優圖11篇論文入選,涵蓋動作識別、人群密度估計、人臉安全等...
    近日,國際人工智慧頂級會議AAAI 2021公布了論文錄取結果。AAAI是人工智慧領域最悠久、涵蓋內容最為廣泛的國際頂級學術會議之一。AAAI 2021一共收到9034篇論文提交,其中有效審稿的數量為7911篇,最終錄取數量為1692篇,錄取率為21.4%。
  • 騰訊優圖11篇論文入選,涵蓋動作識別、人群密度估計、人臉安全等領域
    近日,國際人工智慧頂級會議AAAI 2021公布了論文錄取結果。AAAI是人工智慧領域最悠久、涵蓋內容最為廣泛的國際頂級學術會議之一。AAAI 2021一共收到9034篇論文提交,其中有效審稿的數量為7911篇,最終錄取數量為1692篇,錄取率為21.4%。
  • 萬字長文詳解騰訊優圖 CVPR 2019 入選論文
    今年有超過 5165 篇的大會論文投稿,最終錄取 1299 篇。此次,騰訊公司有超過 58 篇論文被本屆 CVPR 接收,其中騰訊優圖實驗室 25 篇、騰訊 AI Lab 33 篇,以下便是對騰訊優圖實驗室 25 篇被錄用論文的詳細介紹。1.
  • 解讀騰訊優圖ICCV2017 12篇論文:全球首個AI卸妝效果的算法等
    還記得去年一票難求的AI WORLD 2016盛況嗎?今年,即將於2017年11月8日在北京國家會議中心舉辦的AI World 2017世界人工智慧大會上,我們請到了騰訊優圖實驗室傑出科學家賈佳亞教授發表演講。 想了解更多關於騰訊優圖和計算機視覺的前沿動態?點擊文末閱讀原文,馬上參會!
  • 騰訊AI Lab 20 篇論文入選 NIPS2018,含 2 篇 Spotlight
    騰訊 AI Lab 第三次參加 NIPS,共有 20 篇論文入選,其中 2 篇被選為亮點論文(Spotlight),涵蓋遷移學習、模仿學習、半監督學習等多個研究主題,而去年他們入選論文8篇,含1篇口頭報告(Oral)。
  • 騰訊優圖再次刷新三大ReID公開數據集紀錄,首位命中率最高近99%
    近日,騰訊優圖實驗室在行人重識別(ReID)技術上再次取得突破,通過引入跨場景ReID,其ReID模型性能刷新了三大權威主流ReID公開數據集CUHK03,DUKE-MTMC和Market1501的記錄,算法關鍵指標首位命中率(RANK1 Accuracy)和平均精度均值(Mean
  • 帶你認識步態識別&行人重識別
    (大華步態識別技術圖示)唯有大華股份和銀河水滴公開表示在步態識別技術領域取得新的突破,其中,大華在2019年深圳安博會上發布的7大「黑科技」中,就有一個與步態識別相關的技術——跨相機跟蹤技術:使用目標檢測與步態識別技術,實現多個攝像機之間目標物體的視頻接力跟蹤。
  • 騰訊AI Lab入選 CVPR 的六篇論文逐一看 | CVPR 2017
    2017谷歌學術指標(Google Scholar)按論文引用率排名, CVPR位列計算機視覺領域榜首。據雷鋒網AI科技評論了解,今年CVPR審核了2620篇文章,最終收錄783篇,錄取率29%,口頭報告錄取率僅2.65%。
  • 可微圖學習&弱監督,中山大學提出新型行人重識別方法和史上最大...
    弱監督行人重識別的問題定義如下圖 1 所示,其中圖 1(a)是常規全「監督」行人重識別問題,圖 1(b)是弱監督行人重識別問題,圖 1(c)是測試階段,兩種方式的測試階段一致。精煉行人重識別模塊如圖 6(c),按照公式 (8) 和(9)將粗糙行人重識別分數、外表和袋限制輸入圖模型,圖模型生成的偽標籤就能像人工標註的真實標籤一樣被用來更新網絡參數。
  • 基於深度學習的行人重識別研究綜述(上)
    前言:行人重識別(Person Re-identification)也稱行人再識別,本文簡稱為ReID,是利用計算機視覺技術判斷圖像或者視頻序列中是否存在特定行人的技術。廣泛被認為是一個圖像檢索的子問題。給定一個監控行人圖像,檢索跨設備下的該行人圖像。
  • 史上最難ACL放榜 騰訊AI連中27篇論文刷新紀錄
    相關關鍵詞 5月22日消息,近日,國際計算語言學協會年會(ACL,TheAssociationforComputationalLinguistics)在官網公布了ACL2020的論文收錄名單
  • FedReID - 聯邦學習在行人重識別上的首次深入實踐
    作者 | 莊偉銘編輯 | 陳大鑫行人重識別的訓練需要收集大量的人體數據到一個中心伺服器上,這些數據包含了個人敏感信息,因此會造成隱私洩露問題。聯邦學習是一種保護隱私的分布式訓練方法,可以應用到行人重識別上,以解決這個問題。但是在現實場景中,將聯邦學習應用到行人重識別上因為數據異構性,會導致精度下降和收斂的問題。
  • CVPR 2020 重磅:百度Apollo自動駕駛安全相關論文實力入選
    據統計,會議往年的平均錄取率不超過30%,而根據CVPR2020官方公布論文收錄結果,本屆CPVR共接收6656篇論文,中選1470篇,「中標率」只有22%,堪稱十年來最難入選的一屆。然而,在論文接收率下降的同時,中國科技企業被錄取論文數量卻不降反增,百度作為AI代表企業今年中選22篇,比去年的17篇增加了5篇。在自動駕駛領域,與安全息息相關的Apollo車輛識別全新數據合成方法研究便位列其中。
  • 騰訊AI Lab 21 篇 CVPR 2018 錄用論文詳解
    ,騰訊 AI Lab 共有 21 篇論文入選。本文轉載於「騰訊 AI 實驗室」,雷鋒網 AI 科技評論經授權轉載。近十年來在國際計算機視覺領域最具影響力、研究內容最全面的頂級學術會議 CVPR,近日揭曉 2018 年收錄論文名單,騰訊 AI Lab 共有 21 篇論文入選,位居國內企業前列,我們將在下文進行詳解,歡迎交流與討論。去年 CVPR 的論文錄取率為 29%,騰訊 AI Lab 共有 6 篇論文入選。
  • 京東雲與AI 10 篇論文被AAAI 2020 收錄,京東科技實力亮相世界舞臺
    京東雲與AI在本次大會上有10篇論文被AAAI收錄,涉及自然語言處理、計算機視覺、機器學習等領域,充分展現了京東用技術驅動公司成長的發展模式以及技術實力,技術創新和應用落地也成為這些論文最吸引行業關注的亮點。本屆會議共收到的有效論文投稿超過8800篇,其中7737 篇論文進入評審環節,最終錄取數量為1591篇,錄取率為20.6%。
  • 騰訊AI Lab 2020 年度回顧
    基於該移動機器人平臺的兩篇研究論文被機器人行業國際頂會 IROS 2020 接受為 Oral 展示論文。該項目可以視作騰訊在機器人的機械設計和整機系統設計與搭建方向能力上的一大裡程碑。
  • 香港中文大學賈佳亞教授加盟騰訊優圖,一大波圖像黑科技很可能在路...
    賈佳亞教授任職期間發表過逾百篇頂級會議和刊物論文,是前期和中期計算機視覺最著名的專家之一,研究方向為計算機視覺、圖像計算和處理、機器學習等,最廣為人知的成果是圖像去模糊算法,以及去年帶隊在ImageNet比賽中拿下了Scene Parsing(語義分割)的冠軍。
  • 實驗室裡的AI激情:騰訊優圖的升級修煉之路
    其中,作為騰訊AI技術雙引擎之一的優圖實驗室,就是一個不容忽視的存在。與其他實驗室的不同之處在於,從2012年成立至今,歷經了三次重要迭代升級的優圖,可以說用8年時間走完了通信時代實驗室的世紀曆程。2012年成立之初的優圖實驗室,最早是做圖片的二次壓縮,很快將研究重心心轉移至人臉識別識別、檢測方向,到現在聚焦整個計算機視覺,進行相關的技術研發與儲備。在1.0階段,優圖的核心是拉升騰訊的技術水位,在視覺AI上不斷精進。
  • WWW 2020:百度入選論文解析,涵蓋信息抽取、對抗生成等領域
    近日,國際頂級綜合學術會議WWW 2020 (The Web Conference 2020) 在中國臺灣如期舉辦。本次會議,百度研究院共有6篇論文入選,位居國內科技企業前列。而且其中大部分論文的全部作者均來自百度,展現出百度公司超高的科研水準和領先的技術實力。