NeurIPS 2020 | AWS Auto-Aug: 利用權重共享思想的新型自動數據增強方法解讀

2021-02-07 arXiv每日學術速遞

在NeurIPS 2020上,商湯研究院搜索與決策團隊提出了一項基於權重共享的新型自動數據增強方法。該工作以多項有啟發性的實驗現象為動機,第一次從權重共享角度思考自動數據增強,實現了既高效又有效的增強策略搜索算法。該方法在多個圖像分類數據集上取得了優秀的表現,尤其在CIFAR-10數據集上刷新了當時的SOTA性能。


論文名稱:Improving Auto-Augment via Augmentation-Wise Weight Sharing

來源:商湯泰坦公開課

數據增強是深度學習中被廣泛運用的一項正則化技術,其被用於提升數據分布的多樣性。例如對圖像數據,常用的操作有仿射變換、調整色相/飽和度/曝光、銳化等。最近一些自動數據增強算法被提出,其旨在自動搜索一些數據增強策略(通常可表示為各個操作的概率分布),使得在這些策略下進行訓練的模型可以得到更好的性能表現。這些自動算法已經取得了顯著的成果,在許多任務上遠遠超過了人工設計的增強策略。然而,這項技術仍然存在挑戰:


1. 速度:一個最直接的搜索方式是每次從頭訓練模型,以其最終的驗證集性能為指標來評估增強策略並更新。這需要成千上萬次的反覆訓練,開銷巨大。只有Google最早的自動數據增強 [1] 使用了這樣的搜索方式。我們把這個搜索方式稱為「原始任務」。


2. 可靠性:後續許多自動增強算法選擇犧牲可靠性來換取效率。這些算法大都採用了迭代近似的思想,設計了一項「代理任務」代替「原始任務」,即:只完整地訓練一次模型;每隔一個或數個模型優化迭代步數,就選擇一次指標來評估、更新數據增強策略。然而最近一些神經網絡架構搜索(NAS)的工作指出,對訓練早期的模型進行評估往往是不準確的(早期表現優秀的模型,在後期不一定仍然優秀)。這在我們的實驗中也得到了驗證。如下圖,不同數據增強策略下的模型,在訓練過程中的相對排名變化很大。


一個更理想的自動數據增強算法需要同時兼顧效率與可靠性。為實現這一點,我們觀察了帶有數據增強的訓練過程。通過發現的一些性質,同時藉由NAS領域的權重共享策略,我們提出了一種新型自動數據增強算法。


1. 數據增強的性質

我們不妨先從另一項正則化手段入手:早停(Early Stopping),即在驗證集誤差開始顯著上升時停止訓練。早停非常符合直覺,其也許能體現過擬合帶來的負面影響往往是在後期才顯露出來的。因此,我們猜想數據增強也有類似性質:數據增強主要是在後期提升模型的泛化能力。為了驗證這一點,我們在CIFAR10上使用Google AutoAug [1]對ResNet18在不同階段進行了數據增強。即:我們始終訓練300輪(epoch)模型,但只在開頭或結尾的Naug輪裡進行數據增強。結果如下圖,藍色實線代表在開頭數個輪次的訓練中帶有數據增強,橙色虛線代表在末尾數個輪次的訓練中帶有數據增強。例如圖中標出的藍點表示在第1至第75個輪次裡使用了數據增強,而在第76至第300個輪次裡未使用。


由圖可見數據增強確實在後期作用更加顯著。例如均只在x輪採用數據增強,那麼將x輪放在訓練後期比放在前期會帶來更大的提升;同時,為了達到相同的精度,在後期進行增強相比在前期進行增強,需要的輪數更少。


2. 權重共享的思想

既然數據增強在後期更加重要,我們大可利用這一點,嘗試將前期不太重要的階段「共享」起來,只聚焦在後期進行評估和搜索,來達到提升效率的目的。受NAS中權重共享思想的啟發,我們提出了一個新的「代理任務」,它把模型的訓練過程分為前期、後期兩階段。在前期,模型會在一個「共享策略」的增強下進行訓練,得到「共享權重」;在後期我們才真正進行策略評估和搜索,模型會在當前正在被搜索的策略的增強下進行訓練,得到最終的驗證集性能並用於更新策略。

1. 問題建模與搜索算法

自動數據增強旨在自動搜索能使驗證集性能最好的數據增強策略。原始任務需要反覆從頭訓練模型,並以最終驗證集準確度作為評估指標。這是一個典型的雙層優化問題(ω表示分類器模型的權重,θ表示自動數據增強策略的權重):

直接求解雙層優化問題會非常耗時。而對於我們的分階段代理任務,在早期我們會選取一個能夠代表各種策略的共享策略,在其增強下訓練一個共享的模型權重:

在後期我們則會讓分類器模型繼承早期的共享權重,進行fine-tune和策略搜索:

由於早期訓練使用的策略是共享策略,與搜索過程完全解耦,因此共享權重只需訓練一次即可用於後續的全部搜索,顯著提升了搜索效率。我們將這一權重共享思想稱為「Augmentation-wise Weight Sharing」。


於是當前問題轉化為:如何選取具有代表性的共享策略?經過推導發現,一個均勻分布下的策略,可以使單獨訓練和共享訓練的增強操作採樣分布之間的KL散度最小。至此,我們便可以得到完整的AWS Auto-Aug搜索算法:


2. 搜索空間與搜索策略

為了與先前工作進行更公平的對比,我們選擇了與其幾乎一致的搜索空間(我們甚至在搜索空間中去掉了更強大的增強操作:Cutout與Sample Pairing)。對於搜索策略,由於我們提出的方法是通用的,任何啟發式搜索算法均適用。實驗中我們發現PPO強化學習算法(也是Google AutoAug使用的算法)已經有了足夠好的表現。


1. 表現對比

我們在3個最主流的圖像分類數據集和4個主流模型上進了算法表現對比。結果如下,在各數據集、各模型上我們均取得了最優表現;尤其是在未使用額外數據的CIFAR-10上,在我們搜索得到的數據增強策略下,PyramidNet取得了新的SOTA性能(舊的SOTA性能為Adv. AA [2] 策略下的PyramidNet):


2. 時間開銷對比

我們以OHL AutoAug [3] 的時間開銷為基準(1x),以WideResNet-28x10在CIFAR-10上使用Cutout的錯誤率為基準(0%),對比各方法的時間開銷和相對誤差降低如下。可見我們的方法在可接受的計算量內取得了很好的表現。


3. 代理任務可靠性對比

為了驗證我們所選擇代理任務相比其他代理任務的高可靠性,我們計算了在搜索過程中取得的準確度和最終準確度的相關性,結果如圖所示:


4. 消融實驗

為了驗證我們搜索得到的策略的有效性,我們將我們的策略和Google AutoAug的策略中概率最高的增強操作逐個去除,並觀察性能的變化。結果如下表所示,可見我們搜索得到的策略確實更有效。


5. 搜索過程展示

最後,我們還展示了我們的策略分布在整個搜索過程中的變化。如下圖所示(左右分別對應CIFAR-10、ImageNet),增強操作在最初均為均勻分布(圖中做了平滑);隨著搜索進程推進,多數操作的概率開始趨向0,而為數不多的數個操作的概率則不斷增大,體現出分化的過程。


在這項工作中我們提出了一種利用權重共享思想的新型自動數據增強方法。該方法很好地解決了自動數據增強的評估效率與評估可靠性之間的矛盾問題,充足的實驗結果也驗證了其的高效性和有效性。最後,我們還期待這項工作中的現象或蘊含的思想能夠對更多的超參數優化工作帶來幫助和啟發。如果您希望作進一步討論,歡迎與我們聯繫:

tiankeyu.00@gmail.com。

原創文章,如需轉載,

請在公眾號後臺回復「轉載」進行聯繫

https://arxiv.org/abs/2009.14737

https://github.com/Awesome-AutoAug-Algorithms/AWS-OHL-AutoAug

[1] Cubuk, Ekin D., et al. "Autoaugment: Learning augmentation policies from data." arXiv preprint arXiv:1805. 09501  (2018).

[2] Zhang, Xinyu, et al. "Adversarial autoaugment." arXiv preprint arXiv:1912.  11188 (2019).

[3] Lin, Chen, et al. "Online hyper-parameter learning for auto-augmentation strategy." Proceedings of the IEEE International Conference on Computer Vision. 2019.


相關焦點

  • NeurIPS 2020 | AWS Auto-Aug: 利用權重共享思想的新型自動數據...
    點擊查看 導讀:在NeurIPS 2020上,商湯研究院工具鏈的搜索和決策團隊提出了一項基於權重共享的新型自動數據增強方法。該工作以多項有啟發性的實驗現象為動機,第一次從權重共享角度思考自動數據增強,實現了既高效又有效的增強策略搜索算法。該方法在多個圖像分類數據集上取得了優秀的表現,尤其在CIFAR-10數據集上刷新了當時的SOTA性能。
  • NeurIPS 2020|:新型自動數據增強方法解讀
    導讀:在NeurIPS 2020上,商湯研究院工具鏈的搜索和決策團隊提出了一項基於權重共享的新型自動數據增強方法。該工作以多項有啟發性的實驗現象為動機,第一次從權重共享角度思考自動數據增強,實現了既高效又有效的增強策略搜索算法。該方法在多個圖像分類數據集上取得了優秀的表現,尤其在CIFAR-10數據集上刷新了當時的SOTA性能。
  • ...AI 研究院提出新的數據增強算法,比谷歌大腦的 AutoAugment 更...
    雷鋒網 AI 科技評論按:數據增強是提升圖像識別模型性能的重要手段。伯克利 AI 研究院的一篇關於數據增強的論文便被 ICML 2019 收錄為 oral 論文,該論文巧妙地運用基於種群的數據增強算法,在降低計算成本的情況下,既能提高學習數據增強策略的速度,又能提升模型的整體性能。伯克利 AI 研究院也在官方博客上對論文進行了解讀,雷鋒網 AI 科技評論編譯如下。
  • CVPR最新醫學影像AI論文:利用學習圖像變換進行數據增強
    為了解決缺乏標註數據的問題,研究人員通常使用人工預處理、手動調整架構和數據增強等技術。然而,這些技術涉及複雜的工程工作,並且通常針對特定的數據集。因此MIT的團隊提出了用於醫學圖像的自動數據增強方法。在one-shot磁共振成像(MRI)腦部分割這一實際挑戰中,MIT團隊提出的半監督方法只需要單個有人工標註的數據以及其他沒有標註的數據。
  • 沒有足夠多的數據怎麼辦?計算機視覺數據增強方法總結
    通常,僅複製卷積層中的權重,而不複製包括完全連接的層的整個網絡。這是非常有效的,因為許多圖像數據集共享低級空間特徵,而大數據可更好地學習這些特徵。使用數據增強方法擴展數據集不僅有助於利用有限的數據,還可以增加訓練集的多樣性,減少過度擬合併提高模型的泛化能力。在本文中,我們將重點關注 Data Augmentation,因為計算機視覺是當前研究領域中最活躍的領域之一,所以,本文更聚焦於圖像增強,但是其中很多技術技術都可以應用於其他領域。
  • Facebook「AI 換臉」打假賽新進程:AWS 攜學界大佬加入,初始數據集...
    這些視頻的錄製只使用付費的演員,他們已經與我們達成了協議,並幫助我們創建數據集,這樣可以避免可能妨礙研究人員工作的一些限制。數據集和排行榜以及 Facebook 資助的獎金和獎勵的信息可在 DFDC 網站上獲得。為了確保數據集和挑戰參數的質量,我們現在正在與從事這一領域的研究人員共享前 5000 個 DFDC 視頻。
  • 處理表情識別中的壞數據:一篇CVPR 2020及兩篇TIP的解讀
    Facial Expression Recognition」, 但在解讀它之前,我們先有步驟的解讀兩篇 TIP 作為它的基礎,最後詳細介紹它的算法和思想。本篇提前看重點關注 CVPR 2020 中的這篇「Suppressing Uncertainties for Large-Scale Facial Expression Recognition」, 但在解讀它之前,我們先有步驟的解讀兩篇 TIP 作為它的基礎,最後詳細介紹它的算法和思想。對比性的解讀這三篇論文,也許能對研究者們自己的工作有所啟發。
  • 使用 Auto-sklearn 開啟自動機器學習之旅
    Auto-sklearn 改進了一般的 AutoML 方法。自動機器學習框架採用貝葉斯超參數優化方法,這裡另外添加了兩個組件: 一個用於初始化貝葉斯優化器的元學習(meta-learning)以及優化過程中的自動集成(automated ensemble)方法。這種元學習方法是貝葉斯優化的補充,用於優化 ML 框架。
  • NLP 數據增強方法 EDA
    當數據集比較少的時候,往往會導致模型陷入過擬合。數據增強是一種比較有效的擴充數據集的方法,在計算機視覺領域有比較重要的作用。但是在 NLP 領域數據增強的方法相對少一些,本文介紹一種比較傳統的 NLP 數據增強方法 EDA。
  • 多任務學習——共享模式/權重選擇/attention融合論文剖析
    前面已經提到,傳統硬共享模式下的MTL預估精度對數據分布及任務之間的相關性非常敏感。論文提出的MMoE可以精確建模tasks之間的關係。在MoE結構(多任務之間共享expert子模型)的基礎上,加入了gate結構,用於優化每個task。MMoE可以自動分配參數,以決定從共享task或者特定task(task-specific)中捕獲信息,避免為每個任務增加新參數。
  • NeurIPS 2020獎項出爐:GPT-3等三項研究獲最佳論文獎
    創建能夠找出均衡點的自動程序是非常困難的任務。這篇論文提供了首個解決方法——利用學習方法為通用交互尋找「相關均衡」(correlated equilibria,CE)。相關均衡要求一個受信任的外部調停者為決策者提供決策建議,典型案例就是紅綠燈,紅綠燈告訴車輛前進這一行為是否安全。
  • NeurIPS 2020 獎項出爐:GPT-3等三項研究獲最佳論文獎
    創建能夠找出均衡點的自動程序是非常困難的任務。這篇論文提供了首個解決方法——利用學習方法為通用交互尋找「相關均衡」(correlated equilibria,CE)。相關均衡要求一個受信任的外部調停者為決策者提供決策建議,典型案例就是紅綠燈,紅綠燈告訴車輛前進這一行為是否安全。
  • 南大NLP:自動跨主題作文屬性評分|AAAI 2021
    我們提出了一個新的任務,即自動主題作文屬性評分,它將AES解決方案中的兩個重要任務(跨主題作文評分和作文屬性評分)結合起來,從而更貼近真實場景。2. 我們設計了一個新的方法叫Cross-prompt Trait Scorer(CTS),通過使用多任務方法來解決由於partial-trait coverage而導致訓練數據受限的問題。
  • 百度EasyDL自研數據增強服務加持AI模型開發
    在 AI 模型開發的過程中,許多開發者被不夠充足的訓練數據擋住了提升模型效果的腳步,一個擁有出色效果的深度學習模型,支撐它的通常是一個龐大的標註數據集。因此,提升模型的效果的通用方法是增加數據的數量和多樣性。但在實踐中,收集數目龐大的高質量數據並不容易,在某些特定領域與應用場景甚至難以獲取大量數據。那麼如何能在有限數據的情況下提升模型的效果呢?
  • 不知道怎樣計算權重?告訴你8種確定權重方法
    本文列出常見的權重計算方法,並且對比各類權重計算法的思想和大概原理,使用條件等,便於研究人員選擇出科學的權重計算方法。;此類方法利用數字的相對大小信息進行權重計算;第三類為熵值法(熵權法);此類方法利用數據熵值信息即信息量大小進行權重計算;第四類為CRITIC、獨立性權重和信息量權重;此類方法主要是利用數據的波動性或者數據之間的相關關係情況進行權重計算。
  • NeurIPS 2020 | 近期必讀高斯過程精選論文
    本文提出了一種基於在線連續模型的強化學習方法,該方法不需要進行預訓練即可解決任務邊界未知的任務不可知問題。我們聘請專家來處理非平穩性,並使用高斯過程表示每種不同類型的動力學,以有效利用收集到的數據並表達不確定性。我們提出一種過渡,以解決流數據中的時間依賴性,並通過順序變分推斷在線更新混合。我們的方法通過為從未見過的動力學生成新模型並為以前見過的動力學重用舊模型,來可靠地處理任務分配轉移。
  • NeurIPS2020獎項出爐:GPT-3等三項研究獲最佳論文獎,華人一作論文...
    OpenAI 等提出的語言模型 、米蘭理工大學和卡內基梅隆大學提出的 no-regret 學習動態研究,和加州大學伯克利分校關於數據總結的論文共享本屆會議的最佳論文獎項。獲得時間檢驗獎的論文則是誕生於 2011 年的研究《HOGWILD!: A Lock-Free Approach to Parallelizing Stochastic Gradient Descent》。
  • 數據標註有困難?考慮下用BYOL輕鬆進行自監督學習!附代碼、論文解讀連結
    為了實現對比方法,我們必須將每個樣本與其他許多負例樣本進行比較。然而這樣會使訓練很不穩定,同時會增大數據集的系統偏差。BYOL的作者顯然明白這點:對比方法對圖像增強的方式非常敏感。例如,當消除圖像增強中的顏色失真時,SimCLR表現不佳。可能的原因是,同一圖像的不同裁切一般會共享顏色直方圖,而不同圖像的顏色直方圖是不同的。
  • KDD 2019 | 自動探索特徵組合,第四範式提出新方法AutoCross
    於是,第四範式提出了一種新型特徵組合方法 AutoCross,該方法可在實際應用中自動實現表數據的特徵組合,提高機器學習算法的預測能力,並提升效率和有效性。目前,該論文已被數據挖掘領域頂會 KDD 2019 接收。
  • NLP 數據增強方法回譯
    數據增強是擴充數據集的有效方法,本文介紹一種簡單可行的 NLP 數據集擴充方法——回譯,回譯在文本分類中有比較好的效果,也被成功地用在 Kaggle 惡意評論分類比賽中。1.NLP 數據增強方法 EDA介紹了一種 NLP 數據增強方法 EDA,本文介紹另一種簡單的數據增強方法