ECCV 2020 | 騰訊優圖8篇論文入選,涵蓋目標跟蹤、行人重識別...

2020-12-06 科技快報網

近日,計算機視覺方向的三大國際頂級會議之一的ECCV 2020公布論文獲獎結果。本次ECCV 2020有效投稿5025篇,最終被接受發表論文1361篇,錄取率為27%,較上屆有所下降。其中,oral的論文數為104篇,佔提交總量的2%;spotlight的數目為161篇,佔提交總量的5%;其餘論文均為poster。

ECCV(European Conference on ComputerVision,即歐洲計算機視覺國際會議)是國際頂尖的計算機視覺會議之一,每兩年舉行一次。隨著人工智慧的發展,計算機視覺的研究深入和應用迅速發展,每次舉行都會吸引大量的論文投稿,而今年ECCV的投稿量更是ECCV2018的兩倍還多,創下歷史新高。在競爭越來越激烈的情況下,本次ECCV 騰訊優圖實驗室共入選8篇論文,涵蓋目標跟蹤、行人重識別、人臉識別、人體姿態估計、動作識別、物體檢測等熱門及前沿領域,再次展示了騰訊在計算機視覺領域的科研及創新實力。

以下為部分騰訊優圖入選ECCV 2020的論文:

01

鏈式跟蹤器:基於目標對回歸的端到端聯合檢測跟蹤算法

Chained-Tracker: 

Chaining Paired Attentive Regression Results for 

End-to-End Joint Multiple-Object Detection and Tracking

現有的多目標跟蹤(MOT)算法大多是基於傳統的先檢測後跟蹤的框架,包含目標檢測、特徵提取、目標關聯這三個模塊,還有少數MOT算法將三個模塊中的某兩個融合實現部分端到端跟蹤,本文提出了一種鏈式跟蹤算法Chained-TrackerCTracker業內首創兩幀輸入模式,可將上述三個模塊集成至單個網絡中,實現端到端聯合檢測跟蹤,是第一個將跟蹤算法中的目標關聯問題轉化為兩幀檢測框對(Boxpair)回歸問題的算法。網絡的輸入為相鄰兩幀,稱之為節點(Chainnode),網絡的輸出為表示同一個目標在相鄰兩幀中的檢測框對,相鄰節點的檢測框對可通過共同幀關聯。為進一步提高跟蹤效果,我們還設計了聯合注意力模塊來突出檢測框對回歸中的有效信息區域,包括目標分類分支中的目標註意力機制和身份驗證分支中的身份注意力機制。在不引入額外數據的情況下,CTracker在MOT16和MOT17上均獲得了SOTA的結果,MOTA分別為67.6和66.6。

算法框架圖:

網絡結構圖:

02

請別來打擾我:在其他行人幹擾下的行人重識別

Do Not Disturb Me:

Person Re-identification Under the Interference of Other Pedestrians

傳統的行人重識別假設裁剪的圖像只包含單人。然而,在擁擠的場景中,現成的檢測器可能會生成多人的邊界框,並且其中背景行人佔很大比例,或者存在人體遮擋。從這些帶有行人幹擾的圖像中提取的特徵可能包含幹擾信息,這將導致錯誤的檢索結果。為了解決這一問題,本文提出了一種新的深層網絡(PISNet)。PISNet首先利用Query圖片引導的注意力模塊來增強圖片中目標的特徵。此外,我們提出了反向注意模塊多人分離損失函數促進了注意力模塊來抑制其他行人的幹擾。我們的方法在兩個新的行人幹擾數據集上進行了評估,結果表明,該方法與現有的Re-ID方法相比具有更好的性能。

03

通過分布蒸餾損失改善人臉識別中的困難樣本

Improving Face Recognition 

from Hard Samples via Distribution Distillation Loss

目前基於深度學習的人臉識別算法已經可以較好的處理簡單樣本,但對於困難樣本(低解析度、大姿態等)仍表現不佳。目前主要有兩種方式嘗試解決這一問題。第一種方法是充分利用某種需要處理的人臉畸變的先驗信息,設計特定的結構或損失函數。這種方式通常不能方便地遷移到其他畸變類型。第二種方法是通過設計合適的損失函數,減小類內距離,增大類間距離,得到更具辨別能力的人臉特徵。這種方式一般在簡單和困難樣本上存在明顯的性能差異。為了提升人臉識別模型在困難樣本上的性能,我們提出了一種基於分布蒸餾的損失函數。具體來說,我們首先通過一個預訓練的識別模型構造兩種相似度分布(從簡單樣本構造的Teacher分布和從困難樣本的Student分布),然後通過分布蒸餾損失函數使Student分布靠近Teacher分布,從而減小Student分布中的同人樣本和非同人樣本的相似度重合區域,提高困難樣本的識別性能。我們在常用的大規模人臉測試集和多個包含不同畸變類型(人種、解析度、姿態)的人臉測試集上進行了充分的實驗,驗證了方法的有效性。

04

基於對抗語義數據增強的人體姿態估計

Adversarial Semantic Data Augmentation 

for Human Pose Estimation

人體姿態估計主要目的是定位人體的關鍵點坐標。目前的SOTA方法在嚴重遮擋、旁人幹擾、對稱相似三種困難場景中表現仍有待提升。一個主要的原因是這三種困難場景的訓練數據較少。之前的方法主要是利用scale、rotation、translation等globalspatial transform的方法去進行訓練數據增強。這類常規的數據增強方法並不能對上述三種困難場景有提升和幫助。本文提出了一種Adversarial Semantic Data Augmentation(對抗語義數據增強方法)。該方法把人體分成多個有語義的部件,並對這些人體部件在不同的細粒度上進行重組,從而去模擬出上述三種困難場景。在重組人體部件的過程中,有多個空間變換參數來調節每一個人體部件,從而靈活的組合旁人遮擋、手臂交叉、複雜動作等情況。為了讓人體姿態估計網絡能更好的學習到對這些困難場景的魯棒性,我們設計了另外一個生成網絡(G)用於控制每個人體部件的空間變換參數,人體姿態估計網絡作為判別網絡(D)從G生成的困難樣本裡面去學習。G和D在訓練過程中互相對抗。G網絡不斷的生成各種困難樣本,以迷惑人體姿態估計網絡。而人體姿態估計網絡從這個對抗過程中也不斷提升了自己對困難場景的預測準確性。

05

基於特徵解耦的人臉活體檢測

Face Anti-Spoofing via 

Disentangled Representation Learning

活體檢測技術用於在身份驗證場景中確定對象是否為真人,以防禦照片、面具、屏幕翻拍等多種方式的攻擊,保證人臉識別安全。目前基於RGB圖像的活體檢測方法往往從圖片中直接提取判別性特徵,但該特徵可能包含了光照、背景或ID等與活體任務無關的信息,影響方法實際使用的泛化性。針對泛化性問題,本文從特徵解耦角度出發,提出以下創新點:

1、設計解耦框架將圖片特徵解耦成活體相關特徵和活體無關特徵兩部分,並利用活體相關特徵進行真假判別。

2、結合底層紋理特徵約束和高層深度特徵約束,進一步促進活體特徵的解耦。

3、探索並展示了影響活體特徵的因素,例如攻擊介質、採集設備等,進一步深入理解活體任務本質。

本文在多個學術數據集上證明了基於輔助約束的特徵解耦方法在活體任務上的有效性。

06

SSCGAN:基於風格跳躍連接的人臉屬性編輯

SSCGAN:

Facial Attribute Editing via Style Skip Connections

現有的人臉屬性編輯方法通常採用編碼器-解碼器結構,其中屬性信息被表達成一個one-hot向量然後與圖像或特徵層拼接起來。然而,這樣的操作只學到了局部的語義映射而忽略了全局的人臉統計信息。我們在本文提出通過修改通道層面的全局信息(風格特徵)來解決這個問題。我們設計了一個基於風格跳躍連接的生成對抗網絡(SSCGAN)來實現精準的人臉屬性操縱。具體來說,我們在編碼器和解碼器之間的多個風格跳躍連接路徑上注入目標屬性信息。每個連接會抽取編碼器中的隱藏層的風格特徵,然後做一個基於殘差的映射函數來將這個風格特徵遷移到目標屬性的空間。接下來,這個被調整過的風格特徵可以用作輸入來對解碼器的隱藏層特徵做實例歸一化。此外,為了避免空間信息的損失(比如頭髮紋理或瞳孔位置),我們進一步引入了基於跳躍連接的空間信息傳遞模塊。通過對全局風格和局部空間信息的操縱,本文提出的方法可以得到在屬性生成準確率和圖像質量上都更好的結果。實驗結果表明本文的算法和現有的所有方法相比都有優越性。

07

基於時序性差異表徵的動作識別

Temporal Distinct Representation Learning 

for Action Recognition

2D卷積神經網絡已經廣泛應用於圖像識別當中並取得成功,研究人員現在在嘗試利用2D卷積神經網絡來對視頻進行建模。然而利用2D卷積的局限性在於視頻的不同幀共享參數,會導致重複、冗餘的信息提取,尤其是空間語義層面會忽略幀間的重要變化。在這篇工作中,我們嘗試通過兩種方式來解決這一問題:

是設計了一種通道層面的序列化注意力機制PEM來逐步地激活特徵中有區分性的通道,從而避免信息的重複提取;

是設計了一種時序多樣性損失函數(TD Loss)來強制卷積核關注並捕捉幀間的變化而不是表觀相似的區域。

在時序性較強的數據集something-something V1和V2上,我們的方法取得了SOTA效果;另外在時序性較弱但規模較大的Kinetics數據集上,我們的方法也取得了可觀的精度提升。

結構示意圖:

效果示意圖:

08

物體檢測中檢測框學習的深入優化

Dive Deeper Into Box for Object Detection

無錨框檢測模型現已成為具有最高檢測水準的最新方法,歸因於準確的邊界框估計。然而無錨框檢測在邊界定位上還有不足,對於具有最高置信度的邊界框仍有很大的改進空間。在這項工作中,我們採用了一種邊界重排序的邊界框重組策略,使得在訓練中能夠產生更優的邊界框,從而對物體有更好的貼合。此外,我們觀察到現有方法在邊界框分類與位置回歸學習中存在語義不一致性,所以我們對訓練過程中分類與回歸目標進行了篩選,從而給出了語義一致性的學習目標。實驗證明我們的優化方法上對於檢測性能的提升十分有效。

方法示意圖

相關焦點

  • ECCV 2020 | 騰訊優圖8篇論文入選,涵蓋目標跟蹤、人臉識別等領域
    近日,計算機視覺方向的三大國際頂級會議之一的ECCV 2020公布論文獲獎結果。本次ECCV 2020有效投稿5025篇,最終被接受發表論文1361篇,錄取率為27%,較上屆有所下降。其中,oral的論文數為104篇,佔提交總量的2%;spotlight的數目為161篇,佔提交總量的5%;其餘論文均為poster。
  • 騰訊優圖11篇論文入選,涵蓋動作識別、人群密度估計、人臉安全等領域
    近日,國際人工智慧頂級會議AAAI2021公布了論文錄取結果。AAAI是人工智慧領域最悠久、涵蓋內容最為廣泛的國際頂級學術會議之一。AAAI2021一共收到9034篇論文提交,其中有效審稿的數量為7911篇,最終錄取數量為1692篇,錄取率為21.4%。
  • 全球計算機視覺頂會CVPR 2019論文出爐:騰訊優圖25篇論文入選
    中國團隊表現不俗,此次,騰訊公司有超過58篇論文被本屆CVPR大會接收,其中騰訊優圖實驗室25篇、騰訊AI Lab33篇,相比過去兩年成績大幅提升。作為計算機視覺領域級別最高的研究會議,CVPR2019錄取論文代表了計算機視覺領域在2019年最新和最高的科技水平以及未來發展潮流。CVPR官網顯示,今年有超過5165篇的大會論文投稿,最終錄取1299篇。
  • 全球計算機視覺頂會CVPR 2020論文出爐:騰訊優圖17篇論文入選
    全球計算機視覺頂級會議CVPR2020 (IEEE Conference on Computer Vision and Pattern Recognition,即IEEE國際計算機視覺與模式識別會議) 即將於2020年6月14日-19日在美國西雅圖召開。本屆大會總共錄取來自全球論文1470篇,騰訊優圖實驗室入選17篇。
  • 騰訊優圖25篇論文入選全球頂級計算機視覺會議CVPR 2019
    中國團隊表現不俗,此次,騰訊公司有超過58篇論文被本屆CVPR大會接收,其中騰訊優圖實驗室25篇、騰訊AI Lab33篇,相比過去兩年成績大幅提升。作為計算機視覺領域級別最高的研究會議,CVPR2019錄取論文代表了計算機視覺領域在2019年最新和最高的科技水平以及未來發展潮流。CVPR官網顯示,今年有超過5165篇的大會論文投稿,最終錄取1299篇。
  • ECCV 2020 目標檢測論文大盤點(49篇論文)
    2D 目標檢測旋轉目標檢測視頻目標檢測弱監督目標檢測域自適應目標檢測Few-Shot 目標檢測水下目標檢測目標檢測對抗攻擊其他2D目標檢測ECCV 2020 目標檢測論文大盤點2D 目標檢測>視頻目標檢測Video Object Detection via Object-level Temporal Aggregation作者單位:加州大學美熹德分校, 騰訊, 字節跳動, 谷歌論文:https://www.ecva.net/papers/eccv_2020/papers_ECCV
  • 全球計算機視覺頂會 CVPR 連續三年收錄騰訊優圖論文 2019 收錄 25...
    中國團隊表現不俗,此次,騰訊公司有超過 58 篇論文被本屆 CVPR 大會接收,其中騰訊優圖實驗室 25 篇、騰訊 AI Lab33 篇,相比過去兩年成績大幅提升。作為計算機視覺領域級別最高的研究會議,CVPR2019 錄取論文代表了計算機視覺領域在 2019 年最新和最高的科技水平以及未來發展潮流。CVPR 官網顯示,今年有超過 5165 篇的大會論文投稿,最終錄取 1299 篇。
  • 萬字長文詳解騰訊優圖 CVPR 2019 入選論文
    今年有超過 5165 篇的大會論文投稿,最終錄取 1299 篇。此次,騰訊公司有超過 58 篇論文被本屆 CVPR 接收,其中騰訊優圖實驗室 25 篇、騰訊 AI Lab 33 篇,以下便是對騰訊優圖實驗室 25 篇被錄用論文的詳細介紹。1.
  • 史上最火 ECCV 已開幕,這些論文都太有意思了
    受疫情影響,今年 ECCV 2020 和其它頂會一樣,由線下轉至線上舉辦,已於 8 月 23 日拉開了帷幕。在接收論文中,oral 的論文數為 104 篇,佔有效投稿總數的 2%,spotlight 的數目為 161 篇,比例約為 3%。其餘論文為 poster。姿態估計、3D 點雲,優秀論文一覽這場計算機視覺領域的盛會,今年為我們帶來了哪些精彩研究成果?我們從入選論文中,精選出 15 篇,分別涉及 3D 目標檢測、姿態估計、圖像分類、人臉識別等多個方向。
  • 騰訊優圖的 ICCV 2017:12篇論文入選 CV 頂會,3篇Oral|ICCV 2017
    被譽為計算機視覺領域三大頂級會議之一的ICCV(另外兩個為CVPR、ECCV)近日揭曉收錄論文名單,騰訊優圖共有12篇論文入選,其中3篇被選做口頭報告(Oral),該類論文僅佔總投稿數的2.1%(45/2143)。本屆 ICCV 共收到2143篇論文投稿,其中621篇被選為大會論文,錄用比例29%。
  • 解讀騰訊優圖ICCV2017 12篇論文:全球首個AI卸妝效果的算法等
    今年,即將於2017年11月8日在北京國家會議中心舉辦的AI World 2017世界人工智慧大會上,我們請到了騰訊優圖實驗室傑出科學家賈佳亞教授發表演講。 想了解更多關於騰訊優圖和計算機視覺的前沿動態?點擊文末閱讀原文,馬上參會!
  • 騰訊英語君INTERSPEECH 2020展鋒芒,5篇英語口語評測成果論文入選
    近日,被譽為全球最具影響力的語音行業會議的INTERSPEECH揭曉收錄論文名單,騰訊英語君共有5篇口語測評論文入選,涵蓋準確度模型、韻律聲學探測、ASR文本後處理、共振峰預測等技術優化,名列國內企業前茅。
  • 騰訊8篇論文入選MICCAI2019 AI與醫療越走越近
    國際頂級人工智慧醫學影像學術會議MICCAI 2019會期臨近,論文錄用結果陸續揭曉,騰訊共計入選8篇論文,涵蓋病理癌症圖像分類、醫學影像分割、CT病灶檢測、機器學習等範疇。
  • 騰訊優圖學術再進階 論文入選計算機視覺領頂級會議CVPR 2018
    據外媒報導,即將在6月美國鹽湖城舉行的計算機視覺頂級會議CVPR 2018,騰訊優圖的其中兩篇入選論文,由於其較高的應用價值,受到學術界和產業界的關注。騰訊優圖論文再次入庫頂級學術會議作為計算機視覺領域最高級別的會議之一的CVPR,其論文集通常代表著計算機視覺領域最新的發展方向和水平。這也是騰訊優圖繼2017年在另一計算機視覺頂級會議ICCV會議中獲得12篇論文被收錄,包含3篇口頭報告(該類論文僅佔總投稿數2.1%)的成績後,2018年,科研成果再次豐收,論文被CVPR2018收錄。
  • CVPR 2019 | 騰訊AI Lab解讀六大前沿方向及33篇入選論文
    ,今年騰訊公司共有 58 篇論文入選,其中騰訊 AI Lab 33 篇(含 8 篇oral),騰訊優圖實驗室 25 篇。與靜態的圖像處理相比,視頻分析面臨著一些特有的難題,比如識別、跟蹤與重新判定視頻中目標的身份,預測目標的運動軌跡,多目標跟蹤,分析視頻內容並提取相關片段等。
  • 騰訊AI Lab入選20篇論文,含2篇Spotlight
    騰訊AI Lab第三次參加NIPS,共有20篇論文入選,其中2篇被選為亮點論文(Spotlight),涵蓋遷移學習、模仿學習、半監督學習等多個研究主題,去年我們入選論文8篇,含1篇口頭報告(Oral)。
  • ECCV 2020 論文匯總:遙感與航空影像處理識別
    中遙感與航空影像相關論文,總計 5 篇。下載包含這些論文的 ECCV 2020 所有論文:衛星圖像,圖像合成Synthesis and Completion of Facades from Satellite Imagery作者 | Xiaowei Zhang, Christopher May, Daniel Aliaga單位 | 普渡大學論文 | https://www.ecva.net
  • 騰訊AI Lab 20 篇論文入選 NIPS2018,含 2 篇 Spotlight
    騰訊 AI Lab 第三次參加 NIPS,共有 20 篇論文入選,其中 2 篇被選為亮點論文(Spotlight),涵蓋遷移學習、模仿學習、半監督學習等多個研究主題,而去年他們入選論文8篇,含1篇口頭報告(Oral)。
  • CVPR 2020論文收錄揭曉:百度22篇論文入選 涵蓋全視覺領域
    近日,計算機視覺領域「奧斯卡」CVPR 2020官方公布論文收錄結果,伴隨投稿數量激增,接收率開始經歷了一個持續下降的過程。今年,在6656篇有效投稿中,共有1470篇論文被接收,接收率為22%左右,相較去年25%的入選率,同比下降3%。在論文接收率下降的同時,中國科技企業被錄取論文數量卻不降反增,百度作為AI代表企業今年中選22篇,比去年的17篇增加了5篇。
  • CVPR 2018 中國論文分享會 之「人物重識別及追蹤」
    隨後是由港中文-商湯聯合實驗室的李鴻升教授介紹了他們在行人重識別研究中的新視角。李鴻升教授在今年的 CVPR 中共有 7 篇入選論文,這裡他只介紹了其中兩篇。第一篇為 oral 論文,他們考慮到圖片之間具有組相似性,而現有的方法大多忽視了這種相似性;基於這種思考,他們提出了用組相似性的約束的全局 loss 函數,取代了之前只是基於局部的 loss 函數。第二篇論文中他們發現圖片背景對模型重識別行人有很大的影響。最後由來自商湯科技的武偉博士介紹了他們在目標追蹤方面的工作。