當深度學習這個詞是由Rina Dechter在1986年向全球觀眾介紹時,她已是深度學習社區眾多傑出的先驅之一,但這個概念可以追溯到1943年,當時Walter Pitts和Warren McCulloch構建了一個基於人腦神經網絡的計算機模型,這無疑成為許多理論研究的出發點。
不用說,深度學習社區從那時起已經走過了一段很長的路在此理論上學習和發展。它已經得到了顯著的發展和進化,現在被廣泛用於自動化過程、檢測模式、提高性能和解決人類世界的複雜問題。
深度學習的領域對挑戰並不陌生,不可預見的複雜情況和影響阻礙了增長並限制了它能夠實現的真正潛力。多年來致力於消除障礙的研究、研究和不懈努力使人們發現了新的概念、思想、體系結構和模型,這些概念、思想、體系結構和模型的表現都大大超過了前人。
深層神經網絡能夠從訓練數據中提取大量的解釋模式或特徵,並學習非常複雜但有意義的表達。
這些特徵或模式的提取和發現可以歸功於神經網絡的深度,因為它們更容易在網絡的後期發現。隨著輸入到神經網絡的問題的性質變得越來越困難,研究人員開始開發越來越深的模型來獲得更高的結果精度。據觀察,深層神經網絡比淺層次神經網絡表現更好。
如果沒有顯著的深度,模型將無法以複雜的方式整合不同層次的特徵以便從訓練數據中學習。這一結論導致的結果是,通過引入真正的深度學習模型(層數>50),可以解決複雜的問題。人們開始嘗試深度學習模型,深度達到100層,以在訓練數據上獲得更高的準確度分數。
然而,這一關於深度重要性的結論引發了一個有趣的問題:學習更好的網絡是否像堆疊更多層一樣容易?
理論上,隨著普通神經網絡中層數的增加,它在識別複雜函數和特徵方面的能力將逐步提高,從而提高準確性和學習能力。
然而,與人們普遍認為的相反,人們發現,這種模型在提供預期結果方面效率低下。此外,訓練精度在某一點後開始下降。
解決上述問題和理解理論與現實之間的差異的一個障礙是眾所周知的梯度消失和梯度爆炸問題。它們從一開始就阻礙了收斂,這使得模型在準確和高效的學習能力方面不穩定。然而,這個問題已經在很大程度上通過遞歸神經網絡(使用LSTM)、歸一初始化和中間歸一化來解決。這使得具有更高層數的模型能夠收斂於隨機梯度下降和反向傳播。
即使在解決了梯度消失和梯度爆炸的問題後,可以觀察到隨著層數的增加,訓練精度也在下降。這可以在下圖中看到。
人們會認為這可能是過擬合的結果。然而,在這裡情況不是這樣,因為更深的網絡顯示出更高的訓練錯誤而不是測試錯誤。當訓練誤差顯著低於測試誤差時,往往會出現過擬合。
這就是所謂的退化問題。隨著網絡深度的增加,精度會飽和(網絡在到達最後一層之前會學習所有內容),然後如果引入更多層,則會迅速降低。
為了更好地解釋為什麼這裡的結果看起來令人驚訝和意外,我們來看下面的例子。
假設我們有一個「n」層的神經網絡,它給你一個訓練誤差「x」。現在考慮一個具有「m」(m>n)層的更深層次的神經網絡。當我們訓練這個網絡時,我們希望它的性能至少和前一個模型(n層)一樣好,因為總「m」層中的第一個「n」層將產生相同的精度,如果模型需要更複雜的表達,則剩餘的「m-n」層將學習它,如果不需要更多的學習,則剩餘的「m-n」層將作為一個標識函數,負責將輸出傳輸到最終層。因此,我們可以得出這樣的結論:具有「m」層的神經網絡將給出訓練誤差「y」(y≤x)。
但這在實踐中不會發生,更深層次的神經網絡也不一定會產生較低的訓練誤差。
微軟研究團隊的Kaiming He, Xiangyu Zhang, Shaoqin Ren, Jian Sun提出了一個殘差學習框架(ResNets),通過消除退化問題,幫助簡化網絡的訓練。他們已經用證據證明,resnet更容易優化,並且在相當大的深度可以有很高的精度。
正如我們之前看到的,深層網絡中的後一層無法學習將結果傳輸到輸出所需的身份函數。在殘差網絡中,我們不希望層符合期望的映射,而是讓這些層適應殘差映射。
最初,所需的映射是H(x)。然而,我們讓網絡來擬合殘差映射F(x)=H(x)-x,因為網絡發現優化殘差映射比優化原始映射更容易
這種將數據從一層繞過另一層的方法稱為快捷連接或跳躍連接。這種方法允許數據在各層之間輕鬆流動,而不會妨礙深度學習模型的學習能力。添加這種類型的跳躍連結的好處是,如果任何層損害了模型的性能,那麼它將被跳過。
跳躍連接背後的邏輯是,網絡更容易學會將f(x)的值轉換為零,從而使其行為類似於一個恆等函數,而不是完全靠自己學習像恆等函數一樣,找到一組正確的能夠給你答案的值。
ResNet使用兩個主要的構建塊來構建整個網絡。
1. 標識塊(同上)
2. 卷積塊
卷積塊有助於修改和重組傳入數據,以便第一層的輸出與第三層的尺寸相匹配,然後添加它們。
這些組件有助於實現深度學習模型的更高優化和精度。在下圖中,結果準確地顯示了平面層上使用ResNet的效果。
因此,我們可以很容易地得出結論,ResNet無疑是深度學習的一個裡程碑。通過它的快捷連結(跳躍連接),它允許深度學習社區冒險進入更深層次的神經網絡模型,而這反過來又給我們帶來了顯著更好的結果。
(源自:Medium.com 編譯:ODRobots)