深度 | David Silver全面解讀深度強化學習:從基礎概念到AlphaGo

2021-12-29 機器之心

機器之心原創

作者:Duke Lee

參與:馬亞雄、吳攀、吳沁桐、Arac Wu

強化學習在與之相關的研究者中變得越來越流行,尤其是在 DeepMind 被 Google 收購以及 DeepMind 團隊在之後的 AlphaGo 上大獲成功之後。在本文中,我要回顧一下 David Silver 的演講。David Silver 目前任職於 Google DeepMind 團隊。他的演講可以幫助我們獲得對強化學習(RL)和深度強化學習(Deep RL)的基本理解,這不是一件特別難的事。

David Silver 的演講視頻可在這裡查看:http://techtalks.tv/talks/deep-reinforcement-learning/62360/

在這個演講視頻中,David 做了對深度學習(DL)和強化學習(RL)的基本介紹,並討論了如何將這兩種學習方法結合成一種方法。有三種不同的可以結合深度學習和強化學習的方法:基於價值(value-based)、基於策略(policy-based)以及基於模型(model-based)的方法。在這個演講中,David 提供了許多他們自己的實驗的實例,最後以對 AlphaGo 的簡單討論結束了演講。

概覽


演講分為五個部分:

介紹深度學習

介紹強化學習

基於價值的深度強化學習

基於策略的深度強化學習

基於模型的深度強化學習

然而,當我看完講座、理解了各個主題之後,便決定在上述的演講結構中引入一個新的部分——做一個深度強化學習(Deep RL)的概述。這篇文章將會按照如下組織:

介紹深度學習

介紹強化學習

深度強化學習概述

基於價值的深度強化學習

基於策略的深度強化學習

基於模型的深度強化學習

希望上述的文章結構能夠幫助大家更好地理解整個主題。我會重點關注演講視頻中的重點,並儘可能去解釋一些問題的複雜概念。我也會給出我自己的觀點、建議以及一些可以幫助到大家的參考資料。

在深入研究更加複雜的強化學習(RL)主題之前,我會儘可能提供一些關於深度學習和強化學習的基本知識,因為對不了解這兩個主題的基本知識的人而言,這個演講是有一定難度的。希望這些基本知識可以幫助大家。如果你對自己的知識非常有信心,那麼,你可以跳過文章的前兩部分。

深度學習介紹


什麼是深度學習?

深度學習是表徵學習的通用框架,它有以下特點:

給定一個目標(objective)

學習能夠實現目標的特徵

直接的原始輸入

使用最少的領域知識

深度學習(deep learning)的意思就是深度表徵(deep representation)。

如圖所示,一個深度表徵由很多函數組成,它的梯度可以通過鏈式法則來反向傳播。

「深(deep)」的程度可以由函數或者參數的數量來推斷。計算機硬體以及算法的發展使得計算機能夠在合適的時間範圍內完成上圖所述的函數的計算,這是深度學習異軍突起背後的原因。

 

反向傳播(backpropagation)算法在解決深度問題中起著至關重要的作用。對任何一個想學習深度學習的人而言,理解反向傳播是很重要的。

 

請不要混淆深度神經網絡與深度學習。深度學習是一項實現機器學習的技術 [3]。它僅僅是一種機器學習的方法。而深度神經網絡通常被人們用來理解深度表徵。

 

 

深度神經網絡通常包括以下內容:

線性變換、非線性激活函數、以及關於輸出的損失函數,例如均方差和對數似然值。

 

我們用隨機梯度下降的方法來訓練神經網絡。

 

 

如上圖所示,按照能夠使得損失函數 L(W) 減小的方向去調整參數 W.

 

實踐中一個常用的有效方法就是權值共享(Weight Sharing),它是減少參數數量的關鍵。有兩種神經網絡能夠實現權值共享,即循環神經網絡(Recurrent Neural Network)和卷積神經網絡(ConvolutionalNeural Network)。

 

 

如上圖所示,循環神經網絡在時間步長之間共享權值,卷積神經網絡在空間區域共享權值。

 

強化學習簡介

 

什麼是強化學習?

 

在這個講座中,David給出了一張圖表明強化學習在不同領域中的複雜地位,如下圖所示:

 

 

儘管我們在機器學習社區中廣泛使用強化學習,但強化學習不僅僅是一個人工智慧術語。它是許多領域中的一個中心思想,因此圖片的標題是「強化學習的多個方面(Many Face of Reinforcement Learning)」。事實上,許多這些領域面臨著與機器學習相同的問題:如何優化決策以實現最佳結果。

 

這就是決策科學(scienceof decision-making)。在神經科學中,人類研究人腦並發現了一種遵循著名的強化算法的獎勵系統。在心理學中,人們研究的經典條件反射和操作性條件反射,也可以被認為是一個強化問題。類似的,在經濟學中我們研究理性博弈論;在數學中我們研究運籌學;在工程學中我們研究優化控制。所有的這些問題都可以被認為一種強化學習問題—它們研究同一個主題,即為了實現最佳結果而優化決策。

 

強化學習是一個由行為心理學啟發的機器學習領域 [4]。舉個例子,一個學生名叫 Mike,如果他今天閱讀了一篇與強化學習相關的論文,他將會在昨天的分數的基礎上獲得 1 分的獎勵(稱作正反饋)。如果他打了一整天的籃球,他的分數將會被扣掉 1 分(稱為負反饋)。因而,如果 Mike 想每天都想獲得更多的獎勵(正反饋),他會每天都去學習。

 

「本質上,這些都是閉環系統,因為學習系統的行為會影響它之後的輸入。此外,(1) 學習系統沒有像很多其它形式的機器學習方法一樣被告知應該做出什麼行為;(2) 相反,必須在嘗試了之後才能發現哪些行為會導致獎勵的最大化;(3) 在大多數有趣並且有挑戰性的例子中,當前的行為可能不僅僅會影響即時獎勵,還會影響下一步的獎勵以及後續的所有獎勵。這三個特徵是強化學習中最重要的三個區分特徵,作為閉環系統的本質、沒有關於該採取什麼行動和後續的包括獎勵信號和完成學習的時間的直接指示。」[2]

 

強化學習和標準監督學習的區別就在於從來不呈現正確的輸入/輸出對,也不存在次優化的行為被顯式地修正。此外,還關注在線性能。在線性能涉及在對未知領域的探索和當前領域知識的利用之間尋求一個平衡。[4]

 

我們曾經介紹過強化學習:

 

 

並且還有一個視頻演示:

前面說了一下什麼是強化學習的問題,那麼,我們為什麼要關注強化學習呢? 簡而言之,強化學習是一個通用的決策框架。實際上我們關心的是開發一個能夠在現實世界中做出決策的代理(agent)。我們不僅想給它算法並讓它採取行動。我們還想讓代理做決策。而強化學習可以讓代理學會做決策。

 

 

在每一個時刻 t,代理會執行一個動作 at, 收到一個觀測信號 Ot, 收到一個標量獎勵 rt。外界環境會收到一個動作 at, 發出一個觀測信號 Ot+1,發出一個獎勵信號 rt+1。

 

由於每個問題都有其各自不同的特點,所以,為了實現「通用」的目標,我們需要找到它們的共同點和一些規律性的東西。希望大家可以在沒有解釋的情況下理解上圖的內容。圖中的大腦是我們所說的代理,圖中的地球是代理所處的環境。任何時刻,當代理執行一個動作 at 之後,它將會收到對環境的觀測量 Ot 以及來自環境的獎勵 rt,同時,收到動作 at 之後,環境會發出下一個觀測量 Ot+1,以及獎勵 rt+1。這就引入了一個新的概念:狀態。

 

 

如上圖所示,狀態是所有經歷(experience)的總和,經歷就是上圖中的第一個序列函數。某時刻 t 的狀態 st 是該時刻以及之前所有時刻的所有觀測量、獎勵以及動作序列的函數。但是,當代理所處的環境具有一種我們所說的完全可觀測性之後,就有了上圖中的第二個狀態函數——某時刻的狀態僅僅是該時刻的觀測值 Ot 的函數,這樣一來,整個經歷似乎具備了某種類似於馬爾可夫性的性質。

 

然後,就有了三個新的想法:策略(policy)、價值函數(value function)和模型(model)。

一個強化學習系統的主要組成

一個強化學習的代理可能包含一個或多個下述的組成:

 

 

 

策略指的是代理的行為,它是從狀態到行為的映射。包括確定策略和隨機策略。

 

確定策略:a =π(s)

 

隨機策略:π(a|s)= P[a|s]

 

價值函數

 

價值函數是對未來獎勵的預測,表示在狀態 s 下,執行動作 a 會得到多少獎勵?

 

Q 價值函數表示獎勵總值的期望。表示在給定一個策略π,貼現因子γ,和狀態 s 下,執行動作 a,獲得獎勵的綜合的期望是多少?

 

Q 價值函數還能夠分解為上圖描述的貝爾曼方程。

 

貝爾曼方程,以其提出者 Richard Bellman 命名,也被稱作動態規劃方程。它是與動態規劃有關的數學優化相關的優化問題的必要條件 [5]。

 

 

優化價值函數就是使得價值函數達到可實現的最大值。以此為條件就會得到整個問題的最優解,以及相應的最優策略π*。

 

模型:

 

整個模型就是從經歷中學習的過程。

 

由於我們已經定義了強化學習代理的三個組成部分,所以不難理解,優化其中的任何一個都會得到一個較好的結果。

 

有三種實現強化學習的途徑,分別基於不同的原則。即:基於價值的強化學習,基於策略的強化學習,以及基於模型的強化學習。

 

基於價值的強化學習,需要估計 Q 價值函數的最大值 Q*,這是在任意策略下能夠得到的最大 Q 價值函數。

基於策略的強化學習,直接搜索最佳的策略π*,這將得到能夠最大化未來獎勵的策略π*。

基於模型的強化學習,構建一個環境的模型,用模型進行諸如前向搜索的規劃。

 

深度強化學習(DeepReinforcement Learning)

 

什麼是深度強化學習?簡言之,就是強化學習+深度學習。

 

將強化學習和深度學習結合在一起,我們尋求一個能夠解決任何人類級別任務的代理。強化學習定義了優化的目標,深度學習給出了運行機制——表徵問題的方式以及解決問題的方式。強化學習+深度學習就得到了能夠解決很多複雜問題的一種能力——通用智能。

 

DeepMind 中深度強化學習的例子有:

 

遊戲:Atari 遊戲、撲克、圍棋

探索世界:3D 世界、迷宮

控制物理系統:操作、步行、遊泳

與用戶互動:推薦、優化、個性化

 

那麼,我們如何結合強化學習和深度學習呢?

 

 

下面的三部分,我們分別討論三種結合強化學習和深度學習的方法。

 

基於價值的深度強化學習

 

基於價值的深度強化學習的基本思想就是建立一個價值函數的表示,我們稱之為 Q 函數。

 

其中:

 

 

正如我們在上邊圖片中看到的一樣,基本上就是一個黑盒子,將狀態和動作作為輸入,並輸出 Q 和一些權值參數。

 

我們會用到基於 Q學習的基本方法。這種方法會想出我們需要的損失函數,而且是以貝爾曼方程作為開始的。

 

如上圖所示,我們等號右邊作為優化的目標。現在逐步解釋這個算法:將左側的內容移到等號右邊。

 

隨後我們用隨機梯度下降的方法去最小化最小均方差 (MSE),一般這個方法在優化的過程中都會奏效的。如果每一個狀態和動作都有一個單獨的值,那麼在這個方法下,價值函數會收斂到一個最優值。不幸的是,由於我們使用的是神經網絡,會有兩個問題出現:

 

採樣之間的相關性:加入我是一個四處走動的機器人,通過實際數據來學習。我將算法中的每一步視為採取行動的狀態,如此一來,這些狀態和動作就會和上一次執行的動作非常接近。也就是說,我們採取的方法中存在很強的相關性。

我們從中學習到的目標依賴於目標本身,因此這些都是非平穩的動態。正是由於非平穩動態的存在,我們的近似函數會螺旋式失控,並且導致我們的算法崩潰。

 

如果我們繼續使用神經網絡,上述兩個問題是不會被解決的。

 

為了實現穩定的深度強化學習,我們引入的第一個方法是被稱為 DQN 的深度強化網絡。如下面的 PPT 所描述的,這在 Q 學習的基礎上引入了根本的提升。其中的思想非常簡單:通過讓代理從自己的經歷中構建數據集,消除非平穩動態中的所有相關性。然後從數據集中抽取一些經歷並進行更新。

 

在解釋完前面的東西之後,David Silver 給大家舉了一個他們 DeepMind 團隊的一個例子:Atari 遊戲。他們訓練出了一個能夠將 Atari 遊戲玩的很好的系統。相信下面的插圖能夠有助於讀者理解代理和環境(包括狀態、動作以及獎勵)之間的關係

 

 

Atari 中的 DQN

 

從狀態 s 中端對端地學習 Q 價值函數Q(s,a)。

輸入狀態 s 是最近 4 幀的原始像素組成的堆棧

輸出的 Q 價值函數 Q(s,a) 用於 18個操縱杆/按鈕的位置

獎勵就是每一步動作所對應的得分的變化

 

這是一個卷積神經網絡 (CNN)

 

網絡結構和超參數在所有的遊戲中都是固定不變的。

 

採用深度 Q 網絡的 Atari 的 Demo:

 

Nature 上關於深度 Q 網絡 (DQN) 論文:

http://www.nature.com/articles/nature14236

GoogleDeep Mind 團隊深度 Q 網絡 (DQN) 源碼:

http://sites.google.com/a/deepmind.com/dqn/

我們之前也介紹過一次深度 Q 網絡 (DQN) :重磅 | 詳解深度強化學習,搭建 DQN 詳細指南(附論文)

 

繼 Nature 上發表深度 Q 網絡之後,有好多關於 DQN 的改進。但 David 主要關注以下三點:

 

雙深度 Q 網絡(Double DQN):

 

要理解第一個改進,我們首先必須明白 Q 學習中存在的一個問題。問題就踹 MAX 算子上。事實上那樣得到的近似值不足以做出決定,並且這個偏差可能在實際應用中導致一系列問題。因此,為了解決這個問題,我們用了兩個深度 Q 網絡把評價動作的方式分解為兩個路徑。一個深度 Q 網絡用來選擇動作,另一個用來評價動作,這在實踐中確實很有幫助。

 

確定優先級的經歷回放:

 

第二個改進就是我們做經歷回放的方式。舊方法做經歷回放的時候會給所有的經歷附一個相同的權重。然而相等的權重並不是一個好的思想,如果給所有的經歷給一個優先級,你可能做得更好一些。我們僅僅採用了以此誤差的絕對值,它表示在一個時刻的某一個特定狀態有多麼好或者多麼差。那些你並沒有很好的理解的經歷才是所有的經歷中你最想回放的。因為需要更多的更新來矯正你的鍵值。

 

決鬥網絡(DuelingNetwork)

 

第三個改進就是把Q 網絡分成兩個信道。一部分用來計算當你忽略了一些動作的時候你會得到多少獎勵(幻燈片中的action-independent),另一部分用來計算實際中當你採取了某一個特定的動作之後你會做得多麼好。然後將兩個網絡的計算結果求和。然後取兩者的總和。正如前面視頻中演示的,如果你把這個結果正則化,結果會發現這兩個通道會閃爍,因為它們有不同的擴展(scaling)屬性。將兩個網絡分開,去幫助神經網絡學習更多的東西,這實際上是很有幫助的。

 

它們通過在Google 利用下面的結構(Gorila)來讓系統加速,這很適合海量數據。

 

 

Gorila 結構運行在很多不同的機器上,這讓它們可以共同運行深度 Q 網絡。我們有許多個代理並行運行的實例,有我們環境的許多不同的實例,這些環境都是基於許多不同的機器,這樣便能讓我們在力所能及的情況下生成儘可能多的經歷。

 

這些經歷被存放在一個分布式的經歷回放記憶(experience replay memory)中。本質上就是將所有並行的代理的經歷收集起來並且以分布式的方式存儲。我們由很多學習器能夠在這些經歷中並行採樣。一旦你有了這個經歷回放的緩存,我們可以從中讀取很多不同的東西並且將其應用於系統的更新上。然後,從那些學習器返回的參數更新將被共享到我們存儲的分布式神經網絡中,然後在實際上運行在這些機器上的每個代理共享。

 

那麼,在沒有Google 的資源的情況下,我們如何做才能加速強化學習呢?可以使用異步強化學習:

 

利用標準 CPU 的多線程

將一個代理的多個實例並行執行

線程間共享網絡參數

並行地消除數據地相關性

經歷回放的可替代品

在單個機器上進行類似於 Gorila 的加速!

 

基於策略的深度強化學習

 

深度策略網絡

 

策略梯度

 

 

Actor-Critic算法

 

異步優勢Actor Critic 算法(A3C)

 

 

Labyrinth中的異步優勢Actor Critic 算法(A3C)

 

 

深度強化學習中採用異步方法的演示:Labyrinth,如下

我們如何處理高維連續動作空間?

 

 

與深度 Q 網絡類似,我們在這裡有 DPG 算法。希望你現在對深度 Q 網絡有了較好的理解,這將有助於你理解下一部分內容。

 

確定策略梯度(DPG/DeterministicPolicy Gradient)算法

 

下面是 DavidSilver 關於 DPG 的論文的連結:

http://www.jmlr.org/proceedings/papers/v32/silver14.pdf_

 

深度確定策略梯度

 

模擬物理中的確定策略梯度算法:

 

 

圖為兩個分離的卷積神經網絡,分別對應 Q 價值函 Q(s,a)和策略π(s)。

 

然後我們來看一看其他的經典遊戲,例如撲克。我們能夠使用深度強化學習的方法在多代理的遊戲中找到納什均衡嗎?納什均衡就像多代理決策問題中的解決方案。在這個均衡下,每個代理都滿足它們的策略,沒人願意偏離當前的策略。

 

因此,如果我們找到了納什均衡,我們就解決了這個小問題。很多研究都在關注如何在更加龐大、有趣的博弈遊戲中實現這種均衡。

 

這裡的思想是,我們首先學習一個價值 Q 網絡,然後學習一個策略網絡,然後挑選一些最佳相應和平均最佳相應之間的動作。

 

代理在遊戲中進行虛擬自我對抗 (FSP)。

 

 

下面的幻燈片闡述了在德州撲克進行 FSP 的結果:隨著迭代次數的增加,不同的算法都收斂了。

 

 

基於模型的深度強化學習

 

學習環境的模型

 

Demo:Atari 的生成模型

複雜的誤差使規劃富有挑戰

傳遞模型中的誤差會在軌跡上複合

規劃的軌跡會與執行的軌跡有所不同

在長時間的不正常軌跡結束時,獎勵是完全錯誤的

 

學習一個模型,即如何用深度學習完成基於模型的強化學習,並不是這個問題的難點。我們知道了如何規定學習模型的問題。事實上這不過是一個監督學習的問題罷了「如果你想預測:假設我採取了這個動作之後,環境會變成什麼樣子」。在這次講座中,他沒有太多地談論這個問題,他只是展示了一個來自密西根大學的視頻,演示你如何能夠建立一個模型,以及建立這個模型有多困難。這是該視頻的屏幕截圖:左側是預測,右側是真實情況。但是,這是很難實現的。

 

然而,如果我們有一個完美的模型呢?也就是說,遊戲規則是已知的。是的,我們知道,AlphaGo 就是這樣的。

 

Nature 上關於 AlphaGo 的論文:

http://www.nature.com/articles/nature16961

AlphaGo 相關的資源: deepmind.com/research/alphago/

 

為什麼下圍棋對於計算機而言是很困難的?

 

暴力搜索是很難處理的。

 

 1. 搜索空間是巨大的

 

 2. 對計算機而言,評價哪一個玩家佔據上風,「幾乎是不可能的」。但是在一些諸如象棋的遊戲中,就比較容易判斷了。

 

過去很多人都認為找到一個解決這個問題的好方法是不可能的。

 

DeepMind 建立了一個卷積神經網絡(CNN),這個網絡將每一個狀態(只要由棋子落下)看作一幅圖像。然後用卷積神經網絡去構造兩個不同的神經網絡。

 

一個代表價值網絡

 

另一個代表策略網絡:

 

為了訓練它,我們結合了監督學習和強化學習,共有三個步驟,如下所示:

 

經過每一步之後的表現:

 

 

價值網絡和策略網絡的效果:

 

總結

 

 

強化學習是一個受行為心理學啟發的機器學習領域。它正在變得越來越流行。在需要構建一個可以像人類一樣甚至超越人類能力去做一些事的人工智慧時,它是非常有用的,比如 AlphaGo。然而,在我看來,在開始學習強化學習之前,我們首先應該理解一些基本的機器學習相關的知識。良好的數學背景將會非常有助於你的學習,並且,這至關重要!

 

好運!我希望在下一屆 ICML 會議上看到你的論文。

 

參考文獻以及推薦的閱讀材料:

 

1.http://videolectures.net/rldm2015_silver_reinforcement_learning/

2.Sutton, Richard S., and Andrew G. Barto. *Reinforcement learning: Anintroduction*. Vol. 1. No. 1. Cambridge: MIT press, 1998.

3.https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai/

4.https://en.wikipedia.org/wiki/Reinforcement_learning

5.https://en.wikipedia.org/wiki/Bellman_equation

6.https://devblogs.nvidia.com/parallelforall/deep-learning-nutshell-reinforcement-learning/  

本文為機器之心原創,轉載請聯繫本公眾號獲得授權

✄---

加入機器之心(全職記者/實習生):hr@jiqizhixin.com

投稿或尋求報導:editor@jiqizhixin.com

廣告&商務合作:bd@jiqizhixin.com

相關焦點

  • David Silver深度強化學習課程 - 中文字幕 共同學習 #08
    AlphaGo 底層核心技術包括深度學習(deep learning)、強化學習(reinforcement learning),和蒙特卡洛搜索樹(Monte Carlo tree search)。 Learning and Planning)、探索與利用(Exploration and Exploitation)、遊戲等方面深入淺出地介紹強化學習。
  • 【AlphaGoZero核心技術】深度強化學習知識資料全集(論文/代碼/教程/視頻/文章等)
    Alpha Zero的背後核心技術是深度強化學習,為此,專知特別收錄整理聚合了關於強化學習的最全知識資料,歡迎大家查看!/drl強化學習系列之三:模型無關的策略評價http://www.algorithmdog.com/reinforcement-learning-model-free-evalution【整理】強化學習與MDPhttp://www.cnblogs.com/mo-wang/p/4910855.html強化學習入門及其實現代碼http://www.jianshu.com/p/165607eaa4f9深度強化學習系列
  • 深度強化學習入門到精通--資料綜述
    其中,感知解決what,深度學習已經超越人類水平;決策解決how,強化學習在遊戲和機器人等領域取得了一定效果;認知解決why,知識圖譜、因果推理和持續學習等正在研究。強化學習,採用反饋學習的方式解決序貫決策問題,因此必然是通往通用人工智慧的終極鑰匙。
  • 深度強化學習(一)----深度學習介紹系列
  • 資源 | 臺大李宏毅教授最新課程,深度強化學習有國語版啦!
    ,或者是他那本非常受歡迎的課程——《1天搞懂深度學習》。這門課程的講義PPT總共有286頁,深入淺出的介紹了深度學習的概念、框架及展望。課程內容通俗易懂,適合深度學習初學者及相關從業人員,在大數據文摘後臺回復「深度學習」可下載課程講義。
  • 2019年度最佳書單:深度學習+機器學習+強化學習
    更為可貴的是,你可以獲得免費的在線版本、習題https://www.deeplearningbook.org/圖書簡介本書介紹了深度學習的廣泛主題,提供數學和概念背景,涵蓋線性代數,概率論和資訊理論,數值計算和機器學習中的相關概念。
  • 【重磅】61篇NIPS2019深度強化學習論文及部分解讀
    在這裡,我們研究了深度強化學習智能體的區間定時能力,這些代理能力是在間隔再生範式上進行端到端訓練,這種範式受到關於時間機制的實驗文獻的啟發。並描述了由經常性和前饋性代理人開發的策略,這些策略都使用不同的機制在時間再生上取得成功,其中一些機制與生物系統具有特定且有趣的相似性。這些發現推動了我們對代理人如何代表時間的理解,並突出了實驗啟發的方法來表徵代理人能力的價值。
  • 深度強化學習在遊戲中的應用
    當然,深度強化學習也存在一些問題,其中重要的一點就是其必須通過不斷的試錯,探索環境進行學習來尋找更好的策略。在金融、電商推薦等場景,一次錯誤的嘗試可能意味著巨大的損失。但值得慶幸的是,遊戲本身就是一個仿真的環境,探索成本很低。也就是說,遊戲的這種特性使得深度強化學習可以幾乎無成本的獲取到大量樣本,以進行訓練提升效果。
  • 【強基固本】深度強化學習(Deep Reinforcement Learning)入門
    」專欄,講解AI領域的基礎知識,為你的科研學習提供助力,夯實理論基礎,提升原始創新能力,敬請關注。地址:https://www.zhihu.com/people/huaqingsong過去的一段時間在深度強化學習領域投入了不少精力,工作中也在應用DRL解決業務問題。子曰:溫故而知新,在進一步深入研究和應用DRL前,階段性的整理下相關知識點。
  • Bengio、Sutton的深度學習&強化學習暑期班又來了,2019視頻已放出
    每年夏季,Yoshua Bengio 等人都會組織深度學習&強化學習夏季課程,從理論到實踐,覆蓋機器學習發展前沿的方方面面。
  • 12本深度學習書籍推薦:有入門,有深度
    然後,介紹了有監督學習、無監督學習和強化學習的區別,具體地介紹了分類和聚類等主題。隨後,介紹了人工神經網絡,以及如何逐層組合成網絡結構。最後,介紹了深度學習,包括計算機視覺中廣泛使用的卷積神經網絡(CNN)。我認為這本書真的是對深入學習的一個介紹,並了解了所涉及的概念。
  • 最前沿:大規模深度強化學習的發展
    ,Petaflop/s-days是什麼概念呢?想想OpenAI和微軟打造的世界排名第五的超算最主要就是用在深度強化學習上,所以這個時代沒有大規模的算力基本上不用搞深度強化學習了。為什麼?因為本來深度學習就需要大量的訓練,而深度強化學習僅依靠reward採集樣本進行更新,更是非常的低效(sample inefficient),所以就需要不斷的訓練訓練訓練。。。
  • 深度學習第56講:強化學習簡介與Q-Learning實例
    從整個機器學習的任務劃分上來看,機器學習可以分為有監督學習、有監督和半監督學習以及強化學習,而我們之前一直談論的圖像、文本等深度學習的應用都屬於監督學習範疇。自編碼器和生成式對抗網絡可以算在無監督深度學習範疇內。最後就只剩下強化學習了。但是我們這是深度學習的筆記,為什麼要把強化學習單獨拎出來講一下呢?
  • 資源|深度學習教程整理
    從基礎概念到數學公式,這是一份520頁的機器學習筆記(圖文並茂)教程文檔下載地址(百度雲):https://pan.baidu.com/s/1tNXYQNadAsDGfPvuuj7_Tw近日,來自SAP(全球第一大商業軟體公司)的梁勁(Jim Liang)公開了自己所寫的一份 520 頁的學習教程
  • 機器學習與深度學習書單
    偏實戰,意在教你快速掌握構建人工智慧系統的概念和工具。它分兩部分講,前半部分講機器學習的基礎理論知識和基本算法,以 Scikit-Learn 實現,後半部分講深度學習和 TensorFlow,教你快速搭建和訓練深度神經網絡。機器學習實戰
  • 2019年度最佳書單:深度學習/機器學習/強化學習(附部分電子書下載)
    更為可貴的是,你可以獲得免費的在線版本、習題https://www.deeplearningbook.org/圖書簡介本書介紹了深度學習的廣泛主題,提供數學和概念背景,涵蓋線性代數,概率論和資訊理論,數值計算和機器學習中的相關概念。
  • 「AlphaGo 之父」David Silver最新演講,傳授強化學習的十大原則
    會上,DeepMind 強化學習研究小組負責人、首席研究員、AlphaGo 項目負責人 David Silver 發表演講,介紹了強化學習的十大原則。機器之心對該演講進行了介紹。;這可以說是強化學習項目中最重要的一個決定。
  • 【資料總結】| Deep Reinforcement Learning 深度強化學習
    ,強化學習。除了非常厲害的玩家是真的自己手動玩的高分,其實很多高分是通過我們用強化學習的方法來訓練一個模型,讓小鳥自己學習如何不碰到障礙物一直往前飛,獲得最高分。此外,大家熟知的Alpha Go,其實也是強化學習訓練的模型,不過是深度強化學習。
  • 深度神經網絡全面概述:從基本概念到實際模型和硬體基礎
    近日,由 IEEE Fellow Joel Emer 領導的一個團隊發布了一篇題為《深度神經網絡的有效處理:教程和調研(Efficient Processing of Deep Neural Networks: A Tutorial and Survey)》的綜述論文,從算法、模型、硬體和架構等多個角度對深度神經網絡進行了較為全面的梳理和總結。
  • 【下載】深度強化學習實戰書籍和代碼《Deep Reinforcement Learning in Action》
    Learning in Action》介紹使用流行的PyTorch深度學習框架來構建網絡,以探索從深度Q網絡到策略梯度方法,再到進化算法的一系列強化學習算法。手把手教你構建深度強化學習項目,比如控制模擬機器人,自動化股票市場交易,甚至建造一個可以玩圍棋的機器人。隨書同時提供代碼,可以讓你動手測試改進。