點擊上方「機器學習與生成對抗網絡」,關注星標
獲取有趣、好玩的前沿乾貨!
無需標籤,定位物體的位置,弱監督物體定位的端到端的方法,超越CAM和Hide-and-Seek。
ACoL: Adversarial Complementary Learning對抗補充學習弱監督目標定位,ACoL,由雪梨科技大學,伊利諾伊大學香檳分校和新加坡國立大學提出。摘要:
弱監督目標定位(WSOL)是對目標進行定位,但沒有目標的包圍框標籤,只有圖像級標籤,用於訓練。提出了一種簡單的網絡結構,該結構包含兩個並行分類器,用於目標定位。前向傳遞的時候在分類的同時動態定位一些有區分性的目標區域這是一種對抗學習,兩個並行的分類器被迫利用互補的目標區域進行分類,最終共同生成完整的目標定位。1. ACoL: 網絡結構ACoL: 網絡結構提出的ACoL旨在通過對抗學習的方式發現整體的目標區域
1.1. ACoL結構提出的ACoL,包括三個組成部分,Backbone, Classifier A和Classifier bBackbone:一個全卷積網絡,作為特徵提取器。兩個分支包含相同數量的卷積層然後是GAP層和softmax層用於分類。具體來說,將分類器B的輸入特徵在分類器A產生的可區分區域的指導下進行部分擦除。
對分類器A的定位圖進行閾值分割,識別出可區分區域。然後將B分類器輸入特徵映射中的對應區域用0代替進行擦除,以實現對抗。這樣的操作鼓勵分類器B利用目標物體的其他區域的特徵來支持圖像級標籤。最後,將兩個分支產生的定位圖相結合,得到目標對象的整體定位圖。採用Max函數進行融合操作。整個過程是端到端訓練的。兩種分類器均採用交叉熵損失函數進行訓練。1.2. VGGNet 和 GoogLeNet提出ACoL方法使用VGGNet和GoogLeNet。具體來說,對VGG-16網絡刪除conv5-3(從pool5到prob),對GoogLeNet網絡刪除最後一個inception。然後,添加兩個kernel size 3 × 3, stride 1, pad 1, 1024個單元的卷積層和一個size 1 × 1, stride 1, 1000個單元的卷積層(CUB-200-2011和Caltech-256數據集分別為200和256個單元)。最後,在卷積層的頂部添加一個GAP層和一個softmax層。1.3. 測試在測試過程中,根據預測的類提取融合後的目標圖,通過線性插值的方法將融合後的目標圖大小調整到與原始圖像相同的大小。為了公平比較,我們使用CAM中詳細介紹的相同策略,根據生成的目標定位圖來生成目標邊界框。具體來說,首先用一個固定的閾值分割前景和背景。然後,尋找在前景像素中覆蓋最大連接區域的緊密邊界框。2. 消融研究不同閾值下的定位誤差該方法可以使網絡達到與原始網絡等價的分類性能。這是由於擦除操作引導網絡發現更多有區別的模式。
3.2. 定位在ILSVRC驗證集上的定位誤差CAM只能捕獲目標的一部分,而ACoL可以捕獲目標的大部分。
提出方法的物體定位圖英文原文:https://sh-tsang.medium.com/acol-adversarial-complementary-learning-weakly-supervised-object-localization-e112e5343f
猜您喜歡:
超100篇!CVPR 2020最全GAN論文梳理匯總!
拆解組新的GAN:解耦表徵MixNMatch
StarGAN第2版:多域多樣性圖像生成
附下載 | 《可解釋的機器學習》中文版
附下載 |《TensorFlow 2.0 深度學習算法實戰》
附下載 |《計算機視覺中的數學方法》分享
《基於深度學習的表面缺陷檢測方法綜述》
《零樣本圖像分類綜述: 十年進展》
《基於深度神經網絡的少樣本學習綜述》