【導讀】Dropout是非常常用的深度學習組件,一般用來做模型正則化或模型壓縮,然而,Dropout到底是怎麼做的?它有哪些變體?CNN和RNN中Dropout該怎麼用?看完這篇文章,你就都知道了。
https://arxiv.org/pdf/1904.13310.pdfSurvey of Dropout Methods for Deep Neural Networks深度神經網絡是當代人工智慧和信號處理領域的一個重要課題。它們的大量參數使得它們特別容易過度擬合,在實踐中需要正則化方法。Dropout是2012年推出的一種避免過度擬合的技術,隨後被應用於2012年的大尺度視覺識別挑戰賽 (Large Scale Visual Recognition Challenge) ,該挑戰賽徹底改變了深度學習研究。原方法在每次訓練迭代中省略概率為0.5的神經網絡中的每個神經元,在測試中包含所有神經元。該技術被證明可以顯著提高在各種任務上的結果。
近年來,受原始dropout方法的啟發而提出的各種隨機技術得到了廣泛的應用。我們通常使用術語dropout方法來指代它們。其中包括dropconnect、standout、fast dropout、變分dropout、Monte Carlo dropout等。上圖展示了對隨時間推移的輟學方法的研究。一般來說,dropout方法是在神經網絡訓練、推理或近似過程中隨機修改參數。雖然最初用於避免過度擬合,但dropout方法已經擴展到各種應用程式中。
本篇文章將上述dropout方法進行了一一分析。
【部分文章】
-END-
專知,專業可信的人工智慧知識分發,讓認知協作更快更好!歡迎登錄www.zhuanzhi.ai,註冊登錄專知,獲取更多AI知識資料!
歡迎微信掃一掃加入專知人工智慧知識星球群,獲取最新AI專業乾貨知識教程視頻資料和與專家交流諮詢!
請加專知小助手微信(掃一掃如下二維碼添加),加入專知人工智慧主題群,諮詢技術商務合作~