點擊上方「CVer」,選擇加"星標"置頂
重磅乾貨,第一時間送達
本文作者:mileistone(來自媒智科技) | 編輯:Amusi
https://zhuanlan.zhihu.com/p/315511581
本文已由原作者授權,不得擅自二次轉載
這幾年人臉檢測的benchmark越刷越高,方法也越來越複雜,提出的模塊或者方法大都專門為人臉檢測設計,不易復現和使用,比如DSFD裡的FEM、PAL、IAM,ASFD裡的AutoFEM、PAL、IAM、DRMC loss,HAMBox裡的PA、OAM、RAL等等。
WIDER FACE驗證集hard結果WIDER FACE測試集hard結果論文:https://arxiv.org/abs/2011.13183
代碼連結:https://github.com/Media-Smart/vedadet/tree/main/configs/trainval/tinaface
鑑於此,我們設計了一個簡單而又強大的人臉檢測模型——TinaFace,該模型基於RetinaNet,相比RetinaNet只做了很小的改動:
在僅使用ResNet50作為backbone的情況下,TinaFace在WIDER FACE的驗證集和測試集中的hard上達到了當前的state of the art。我們只看hard的原因在於WIDER FACE的easy和medium都包含在hard之中,hard體現的是一個人臉檢測器在所有人臉上的檢測效果。
具體來說,在單模型,backbone僅為ResNet50的情況下。
1、驗證集上
1.1、不使用TTA的TinaFace:TinaFace的AP為93.0%,比基於ResNet152的ASFD(使用TTA)高0.5%,比基於ResNet152的DSFD(使用TTA)高1.8%;
1.2、使用TTA的TinaFace:TinaFace的AP為93.4%,比基於ResNet50的HAMBox(使用TTA)高0.1%。
2、測試集上
2.1、不使用TTA的TinaFace:TinaFace的AP為92.1%,與基於ResNet152的ASFD(使用TTA)一樣,比基於ResNet152的DSFD(使用TTA)高2.1%;
2.2、使用TTA的TinaFace:TinaFace的AP為92.4%,比基於ResNet50的HAMBox(使用TTA)高0.1%。
TinaFace非常簡單,基於RetinaNet,所添加的模塊在在通用的目標檢測框架(比如mmdetection、vedadet)中都是現成的。而且訓練不需要大batch,即使你的顯存只有11G,也可以復現TinaFace。也正因為TinaFace使用的模塊都非常經典、成熟,TinaFace也會比較容易部署。
我們的代碼開源地址為TinaFace,基於vedadet,裡面提供當前最好結果的權重,以及訓練、測試、推理代碼,無論大家是想做研究、打比賽、還是僅僅想體驗state of the art的效果,這個repo都能滿足你。
vedadet能做到的不僅於此,vedadet是我們基於mmdetection開發的單階段目標檢測框架,適用任意目標檢測任務,無論是人臉檢測還是通用目標檢測。vedadet提供訓練、測試、推理特性,後續會支持轉ONNX/TensorRT,以及基於TensorRT的Python前端SDK或者C++前端SDK。
https://github.com/Media-Smart/vedadet
想了解實驗細節的朋友可以參見論文TinaFace: Strong but Simple Baseline for Face Detection。實驗中使用的數據分析工具我們也開源了——volkscv。
https://github.com/Media-Smart/volkscv
上述論文和代碼下載
後臺回覆:TinaFace,即可下載上述論文PDF和項目原始碼
目標檢測綜述下載
後臺回覆:目標檢測二十年,即可下載39頁的目標檢測最全綜述,共計411篇參考文獻。
下載2
後臺回覆:CVPR2020,即可下載代碼開源的論文合集
後臺回覆:ECCV2020,即可下載代碼開源的論文合集
後臺回覆:YOLO,即可下載YOLOv4論文和代碼
重磅!CVer-目標檢測 微信交流群已成立
掃碼添加CVer助手,可申請加入CVer-目標檢測 微信交流群,目前已匯集4000人!涵蓋2D/3D目標檢測、小目標檢測、遙感目標檢測等。互相交流,一起進步!
同時也可申請加入CVer大群和細分方向技術群,細分方向已涵蓋:目標檢測、圖像分割、目標跟蹤、人臉檢測&識別、OCR、姿態估計、超解析度、SLAM、醫療影像、Re-ID、GAN、NAS、深度估計、自動駕駛、強化學習、車道線檢測、模型剪枝&壓縮、去噪、去霧、去雨、風格遷移、遙感圖像、行為識別、視頻理解、圖像融合、圖像檢索、論文投稿&交流、PyTorch和TensorFlow等群。
一定要備註:研究方向+地點+學校/公司+暱稱(如目標檢測+上海+上交+卡卡),根據格式備註,可更快被通過且邀請進群
▲長按加群
▲長按關注我們
整理不易,請給CVer點讚和在看!