深度學習的學習率調節實踐

2021-01-11 人工智慧遇見磐創

多層感知器

多層感知器(MLP)是由一個輸入層、一個或多個隱藏層和一個稱為輸出層的最終層組成的人工神經網絡(ANN)。通常,靠近輸入層的層稱為較低層,靠近輸出層的層稱為外層。除輸出層外的每一層都包含一個偏置神經元,並與下一層完全相連。

當一個ANN包含一個很深的隱藏層時,它被稱為深度神經網絡(DNN)。

在這項調查中,我們將在MNIST時尚數據集上訓練一個深度MLP,並通過指數增長來尋找最佳學習率,繪製損失圖,並找到損失增長的點,以達到85%以上的準確率。對於最佳實踐,我們將實現早期停止,保存檢查點,並使用TensorBoard繪製學習曲線。

你可以在這裡查看jupyter Notebook:https://github.com/lukenew2/learning_rates_and_best_practices/blob/master/optimal_learning_rates_with_keras_api.ipynb

指數學習率

學習率可以說是最重要的超參數。一般情況下,最佳學習速率約為最大學習速率(即訓練算法偏離的學習速率)的一半。找到一個好的學習率的一個方法是訓練模型進行幾百次迭代,從非常低的學習率(例如,1e-5)開始,逐漸增加到非常大的值(例如,10)。

這是通過在每次迭代時將學習速率乘以一個常數因子來實現的。如果你將損失描繪為學習率的函數,你應該首先看到它在下降。但過一段時間後,學習率會太高,因此損失會迅速回升:最佳學習率將略低於轉折點。然後,你可以重新初始化你的模型,並使用此良好的學習率對其進行正常訓練。

Keras模型

我們先導入相關庫

import osimport matplotlib.pyplot as pltimport numpy as npimport pandas as pdPROJECT_ROOT_DIR = "."IMAGES_PATH = os.path.join(PROJECT_ROOT_DIR, "images")os.makedirs(IMAGES_PATH, exist_ok=True)def save_fig(fig_id, tight_layout=True, fig_extension="png", resolution=300): path = os.path.join(IMAGES_PATH, fig_id + "." + fig_extension) print("Saving figure", fig_id) if tight_layout: plt.tight_layout() plt.savefig(path, format=fig_extension, dpi=resolution)import tensorflow as tffrom tensorflow import keras接下來加載數據集

(X_train, y_train), (X_test, y_test) = keras.datasets.fashion_mnist.load_data()X_train.shapeX_train.dtype標準化像素

X_valid, X_train = X_train[:5000] / 255.0, X_train[5000:] / 255.0y_valid, y_train = y_train[:5000], y_train[5000:] X_test = X_test / 255.0讓我們快速看一下數據集中的圖像樣本,讓我們感受一下分類任務的複雜性:

class_names = ["T-shirt/top", "Trouser", "Pullover", "Dress", "Coat", "Sandal", "Shirt", "Sneaker", "Bag", "Ankle boot"]n_rows = 4n_cols = 10plt.figure(figsize=(n_cols * 1.2, n_rows * 1.2))for row in range(n_rows): for col in range(n_cols): index = n_cols * row + col plt.subplot(n_rows, n_cols, index + 1) plt.imshow(X_train[index], cmap="binary", interpolation="nearest") plt.axis('off') plt.title(class_names[y_train[index]], fontsize=12)plt.subplots_adjust(wspace=0.2, hspace=0.5)save_fig('fashion_mnist_plot', tight_layout=False)plt.show()

我們已經準備好用Keras來建立我們的MLP。下面是一個具有兩個隱藏層的分類MLP:

model = keras.models.Sequential([ keras.layers.Flatten(input_shape=[28,28]), keras.layers.Dense(300, activation="relu"), keras.layers.Dense(100, activation="relu"), keras.layers.Dense(10, activation="softmax")])讓我們一行一行地看這個代碼:

首先,我們創建了一個Sequential模型,它是神經網絡中最簡單的Keras模型,它只由一堆按順序連接的層組成。接下來,我們構建第一層並將其添加到模型中。它是一個Flatten層,其目的是將每個輸入圖像轉換成一個1D數組:如果它接收到輸入數據X,則計算X.reshape(-1,1)。因為它是模型的第一層,所以應該指定輸入形狀。或者,你可以添加keras.layers.InputLayer作為第一層,設置其input_shape=[28,28]下一步,我們添加一個300個神經元的隱藏層,並指定它使用ReLU激活函數。每一個全連接層管理自己的權重矩陣,包含神經元與其輸入之間的所有連接權重。它還管理一個偏置向量,每個神經元一個。然後我們添加了第二個100個神經元的隱藏層,同樣使用ReLU激活函數。最後,我們使用softmax激活函數添加了一個包含10個神經元的輸出層(因為我們執行的分類是每個類都是互斥的)。使用回調

在Keras中,fit()方法接受一個回調參數,該參數允許你指定Keras將在訓練開始和結束、每個epoch的開始和結束時,甚至在處理每個batch處理之前和之後要調用對象的列表。

為了實現指數級增長的學習率,我們需要創建自己的自定義回調。我們的回調接受一個參數,用於提高學習率的因子。為了將損失描繪成學習率的函數,我們跟蹤每個batch的速率和損失。

請注意,我們將函數定義為on_batch_end(),這取決於我們的目標。當然也可以是on_train_begin(), on_train_end(), on_batch_begin()。對於我們的用例,我們希望在每個批處理之後提高學習率並記錄損失:

K = keras.backendclass ExponentialLearningRate(keras.callbacks.Callback): def __init__(self, factor): self.factor = factor self.rates = [] self.losses = [] def on_batch_end(self, batch, logs): self.rates.append(K.get_value(self.model.optimizer.lr)) self.losses.append(logs["loss"]) K.set_value(self.model.optimizer.lr, self.model.optimizer.lr * self.factor)現在我們的模型已經創建好了,我們只需調用它的compile()方法來指定要使用的loss函數和優化器。或者,你可以指定要在訓練和評估期間計算的額外指標列表。

首先,我們使用「稀疏的分類交叉熵」損失,因為我們有稀疏的標籤(也就是說,對於每個實例,只有一個目標類索引,在我們的例子中,從0到9),並且這些類是互斥的)。接下來,我們指定使用隨機梯度下降,並將學習速率初始化為1e-3,並在每次迭代中增加0.5%:

model.compile(loss="sparse_categorical_crossentropy", optimizer=keras.optimizers.SGD(lr=1e-3), metrics=["accuracy"])expon_lr = ExponentialLearningRate(factor=1.005)現在讓我們只在一個epoch訓練模型:

history = model.fit(X_train, y_train, epochs=1, validation_data=(X_valid, y_valid), callbacks=[expon_lr])我們現在可以將損失繪製為學習率的函數:

plt.plot(expon_lr.rates, expon_lr.losses)plt.gca().set_xscale('log')plt.hlines(min(expon_lr.losses), min(expon_lr.rates), max(expon_lr.rates))plt.axis([min(expon_lr.rates), max(expon_lr.rates), 0, expon_lr.losses[0]])plt.xlabel("Learning rate")plt.ylabel("Loss")save_fig("learning_rate_vs_loss")

正如我們所期望的,隨著學習率的提高,最初的損失逐漸減少。但過了一段時間,學習率太大,導致損失反彈:最佳學習率將略低於損失開始攀升的點(通常比轉折點低10倍左右)。我們現在可以重新初始化我們的模型,並使用良好的學習率對其進行正常訓練。

還有更多的學習率技巧,包括創建學習進度表,我希望在以後的調查中介紹,但對如何手動選擇好的學習率有一個直觀的理解同樣重要。

我們的損失在3e-1左右開始反彈,所以讓我們嘗試使用2e-1作為我們的學習率:

keras.backend.clear_session()np.random.seed(42)tf.random.set_seed(42)model = keras.models.Sequential([ keras.layers.Flatten(input_shape=[28, 28]), keras.layers.Dense(300, activation="relu"), keras.layers.Dense(100, activation="relu"), keras.layers.Dense(10, activation="softmax")])model.compile(loss="sparse_categorical_crossentropy", optimizer=keras.optimizers.SGD(lr=2e-1), metrics=["accuracy"])使用TensorBoard進行可視化

TensorBoard是一個很好的交互式可視化工具,你可以使用它查看訓練期間的學習曲線、比較學習曲線、可視化計算圖、分析訓練統計數據、查看模型生成的圖像,可視化複雜的多維數據投影到三維和自動聚類,等等!這個工具是在安裝TensorFlow時自動安裝的,所以你應該已經安裝了。

讓我們首先定義將用於TensorBoard日誌的根日誌目錄,再加上一個小函數,該函數將根據當前時間生成一個子目錄路徑,以便每次運行時它都是不同的。你可能需要在日誌目錄名稱中包含額外的信息,例如正在測試的超參數值,以便更容易地了解你在TensorBoard中查看的內容:

root_logdir = os.path.join(os.curdir, "my_logs")def get_run_logdir(): import time run_id = time.strftime("run_%Y_%m_%d-%H_%M_%S") return os.path.join(root_logdir, run_id)run_logdir = get_run_logdir() # 例如, './my_logs/run_2020_07_31-15_15_22'Keras api提供了一個TensorBoard()回調函數。TensorBoard()回調函數負責創建日誌目錄,並在訓練時創建事件文件和編寫摘要(摘要是一種二進位數據記錄用於創建可視化TensorBoard)。

每次運行有一個目錄,每個目錄包含一個子目錄,分別用於訓練日誌和驗證日誌。兩者都包含事件文件,但訓練日誌也包含分析跟蹤:這使TensorBoard能夠準確地顯示模型在模型的每個部分(跨越所有設備)上花費了多少時間,這對於查找性能瓶頸非常有用。

early_stopping_cb = keras.callbacks.EarlyStopping(patience=20)checkpoint_cb = keras.callbacks.ModelCheckpoint("my_fashion_mnist_model.h5", save_best_only=True)tensorboard_cb = keras.callbacks.TensorBoard(run_logdir)history = model.fit(X_train, y_train, epochs=100, validation_data=(X_valid, y_valid), callbacks=[early_stopping_cb, checkpoint_cb, tensorboard_cb])接下來,我們需要啟動TensorBoard伺服器。我們可以通過運行以下命令在Jupyter中直接執行此操作。第一行加載TensorBoard擴展,第二行啟動埠6004上的TensorBoard伺服器,並連接到它:

%load_ext tensorboard %tensorboard — logdir=./my_logs — port=6004現在你應該可以看到TensorBoard的web界面。單擊「scaler」選項卡以查看學習曲線。在左下角,選擇要可視化的日誌(例如,第一次運行的訓練日誌),然後單擊epoch_loss scaler。請注意,在我們的訓練過程中,訓練損失下降得很順利。

你還可以可視化整個圖形、學習的權重(投影到3D)或分析軌跡。TensorBoard()回調函數也有記錄額外數據的選項,例如NLP數據集的嵌入。

這實際上是一個非常有用的可視化工具。

結論

在這裡我們得到了88%的準確率,這是我們可以達到的最好的深度MLP。如果我們想進一步提高性能,我們可以嘗試卷積神經網絡(CNN),它對圖像數據非常有效。

就我們的目的而言,這就足夠了。我們學會了如何:

使用Keras的Sequential API構建深度mlp。通過按指數增長學習率,繪製損失圖,並找到損失重新出現的點,來找到最佳學習率。構建深度學習模型時的最佳實踐,包括使用回調和使用TensorBoard可視化學習曲線。如果你想在這裡看到演示幻燈片或jupyterNotebook中完整的代碼和說明,請隨時查看Github存儲庫:https://github.com/lukenew2/learning_rates_and_best_practices

額外的資源

https://www.tensorflow.org/tensorboard/get_started

https://towardsdatascience.com/learning-rate-schedules-and-adaptive-learning-rate-methods-for-deep-learning-2c8f433990d1

相關焦點

  • 通過周期性學習率和快照集成來克服在訓練深度學習中的精度限制
    但是,糟糕的是,the push,部分取決於學習率,是不夠的。為什麼? 在最佳值附近:大Vs小的學習率 我們知道學習速率不是固定的,而是在訓練過程中動態調整的。所以學習的速度在開始時是高的但在訓練結束時是小的。 這是流行學習率更新方法的策略,比如momentum、RMSProp和Adam優化器。 2.目前的解決方案 Cyclical Learning Rates 提高學習率(LR)可以更快速地穿越鞍點plateaus。
  • 專欄 | Detectron精讀系列之一:學習率的調節和踩坑
    Detectron 函數庫有一點複雜,在這次的解讀中我們主要介紹 multi-gpu 訓練的時候,學習率如何調節的問題。看似簡單的問題,最近 Facebook,Google 和 Berkeley 多個組都發表了論文對這一問題進行了理論和實驗的討論,首先我們對這些論文的結果做一個簡要的總結。三篇論文研究類似,但是每一篇相對於前一篇都有改進。
  • 自Adam 出現以來,深度學習優化器發生了什麼變化?
    選自medium作者:Phúc Lê機器之心編譯參與:高璇、王淑婷Adam 自出道以來,就一直是最流行的深度學習優化器,哪怕現在其實已經有幾種可能更好用的優化器……如果將 Adam 優化出現以來產生的關於優化過程的有趣想法按時間順序排列的話,結果如下:
  • 聽說你了解深度學習最常用的學習算法:Adam優化算法?
    By蔣思源2017年7月12日  深度學習常常需要大量的時間和機算資源進行訓練,這也是困擾深度學習算法開發的重大原因。雖然我們可以採用分布式並行訓練加速模型的學習,但所需的計算資源並沒有絲毫減少。而唯有需要資源更少、令模型收斂更快的最優化算法,才能從根本上加速機器的學習速度和效果,Adam算法正為此而生!
  • 深度學習大神Yoshua Bengio經典前瞻演講,幫你打通深度學習的任督...
    Yoshua Bengio連同Geoff Hinton老先生以及 Yann LeCun教授一起造就了2006年始的深度學習復興。他的研究工作主要聚焦在高級機器學習方面,致力於用其解決人工智慧問題。目前他是僅存的幾個仍然全身心投入在學術界的深度學習教授之一(蒙特婁大學),本文是他在2009年的經典前瞻演講——「人工智慧學習深度架構」有關內容的第一部分。
  • Pieter Abbeel:深度強化學習加速方法
    來源:深度強化學習算法  編輯:元子  【新智元導讀】深度強化學習一直以來都以智能體訓練時間長、計算力需求大、模型收斂慢等而限制很多人去學習,加州大學伯克利分校教授Pieter Abbeel最近發表了深度強化學習的加速方法,解決了一些問題。
  • 實踐入門NLP:基於深度學習的自然語言處理
    【NLP工程師入門實踐班】——基於深度學習的自然語言處理開車啦!!還不趕緊上車!?【課程概述 】本課程將首先介紹自然語言處理的發展現狀與挑戰,同時,講解深度學習和自然語言處理的結合應用。除了基本算法外,本課程還配備實踐環節,從一些典型的方向:機器翻譯、文本分類、問答等。
  • 深度學習中權重衰減的偶然效應
    權重衰減無疑是深度學習的一個重要組成部分。這似乎是一個簡單方法的典型例子,其有效性經久不衰。然而,如果我們仔細觀察,就會發現一個巨大的驚喜:權重衰減在深度學習中的有效性更多地歸功於偶然性,而不是它最初的理論基礎。
  • 關於深度學習優化器 optimizer 的選擇,你需要了解這些
    在很多機器學習和深度學習的應用中,我們發現用的最多的優化器是 Adam,為什麼呢?Mini-batch gradient descent梯度更新規則: MBGD 每一次利用一小批樣本,即 n 個樣本進行計算, 這樣它可以降低參數更新時的方差,收斂更穩定, 另一方面可以充分地利用深度學習庫中高度優化的矩陣操作來進行更有效的梯度計算。
  • 深度學習專項課程精煉圖筆記!必備收藏|原力計劃
    深度學習基礎深度學習基本概念監督學習:所有輸入數據都有確定的對應輸出數據,在各種網絡架構中,輸入數據和輸出數據的節點層都位於網絡的兩端,訓練過程就是不斷地調整它們之間的網絡連接權重。右上:損失函數值在參數曲面上變化的簡圖,使用梯度可以找到最快的下降路徑,學習率的大小可以決定收斂的速度和最終結果。學習率較大時,初期收斂很快,不易停留在局部極小值,但後期難以收斂到穩定的值;學習率較小時,情況剛好相反。一般而言,我們希望訓練初期學習率較大,後期學習率較小,之後會介紹變化學習率的訓練方法。
  • 理解深度學習中的學習率及多種選擇策略
    學習率是最影響性能的超參數之一,如果我們只能調整一個超參數,那麼最好的選擇就是它。相比於其它超參數學習率以一種更加複雜的方式控制著模型的有效容量,當學習率最優時,模型的有效容量最大。從手動選擇學習率到使用預熱機制,本文介紹了很多學習率的選擇策略。這篇文章記錄了我對以下問題的理解:學習速率是什麼?學習速率有什麼意義?如何系統地獲得良好的學習速率?
  • 一文概覽深度學習中的五大正則化方法和七大優化策略
    選自arXiv 機器之心編譯 深度學習中的正則化與優化策略一直是非常重要的部分,它們很大程度上決定了模型的泛化與收斂等性能。本文主要以深度卷積網絡為例,探討了深度學習中的五項正則化與七項優化策略,並重點解釋了當前最為流行的 Adam 優化算法。
  • 如何用深度學習做自然語言處理?這裡有份最佳實踐清單
    對於如何使用深度學習進行自然語言處理,本文作者 Sebastian Ruder 給出了一份詳細的最佳實踐清單,不僅包括與大多數 NLP 任務相關的最佳實踐,還有最常見任務的最佳實踐,尤其是分類、序列標註、自然語言生成和神經機器翻譯。作者對最佳實踐的選擇很嚴格,只有被證明在至少兩個獨立的群體中有益的實踐才會入選,並且每個最佳實踐作者至少給出兩個參引。
  • 曠視AI天團線上開講《深度學習實踐》 快來get北大同款課程
    最近,曠視研究院與北大數學科學學院機器學習實驗室聯合出品的《深度學習實踐》課程已經正式在B站向全社會免費開放,快來get北大同款課程,成為「學霸」吧!圖:曠視推出《深度學習實踐》課程 面向全社會免費開放事實上,以往的深度學習課程,不管是斯坦福CS系列,還是deepLearning.ai,雖然講得好,但基本上是英文課
  • 深度學習優化入門:Momentum、RMSProp 和 Adam
    原標題:深度學習優化入門:Momentum、RMSProp 和 Adam 雷鋒網 AI 研習社按:本文為雷鋒網字幕組編譯的技術博客,原標題 Intro to optimization in deep learning: Momentum, RMSProp
  • Adam 或許不是最佳的深度學習優化器
    讓我明確一點:眾所周知, Adam 不會總實現最佳性能, 但大多數時候,人們認為可以利用 Adam 的默認參數在處理某個深度學習問題上實現至少次優的性能。換句話說,Adam 現在被認為是深度學習的默認優化器。那麼,Adam 背後成功的秘密是什麼? 多年來,人們發表了大量的論文試圖解釋 Adam 和它的表現,太多了,不能一一列舉。從「適應學習率」(適應到什麼?
  • 機器學習、深度學習算法原理與案例實踐暨Python大數據綜合應用...
    原標題:機器學習、深度學習算法原理與案例實踐暨Python大數據綜合應用高級研修班通信和信息技術創新人才培養工程項目辦公室 通人辦〔2018〕 第5號 機器學習、深度學習算法原理與案例實踐暨Python
  • 高效「煉丹」必備技能:一文實現深度學習數學原理入門,還有吳恩達...
    尤其是深度學習算法開發人員,追求模型結構優化和提高編程效率是永遠的目標。但是,如果只做代碼「搬運工」,不了解神經網絡背後的數學原理,很難對項目有深刻全面的理解,debug反而會更難、耗時更長。就以深度學習中常用的神經網絡來說,典型模型包括多層感知機(DLP)、卷積神經網絡(CNN)、循環神經網絡(RNN)等等,不同的項目,對神經網絡的調參需求也不相同。
  • 深度學習實踐課|曠視研究院 X 北大聯合出品,正式上線,免費報名!
    《深度學習實踐》全套課程(視頻+PPT,共計28課時)今日在AI研習社正式全面上線,讓你足不出戶也能享有高水平的教學資源。今日,曠視研究院聯合北京大學數學科學學院機器學習實驗室開設的《深度學習實踐》全套課程(視頻+PPT,共計28課時)全面向社會免費開放!從深度學習基礎理論到計算機視覺實踐,由曠視首席科學家兼研究院長孫劍,及身經百戰的研發總監、資深研究員親身授課,真正將高水平深度學習課程帶給大家。知識全面、循循善誘、透徹又不枯燥是本課程最大的特點。
  • 超實用總結:AI實踐者需要用到的10個深度學習方法
    在計算能力爆炸式增長的十年中,作為神經網絡領域的一個重要角色,深度學習出現了,贏得了許多重要的機器學習競賽。2017年,深度學習的熱度仍然不減。今天,在機器學習的出現的地方都可以看到深度學習的身影。  最近,我已經開始閱讀關於深度學習的學術論文。