RBM的Learning問題

2021-02-13 數學 算法 生活


1.受限波爾茨曼機的learning問題利用了CD-k算法

2.它對每個觀測樣本進行一次Gibbs採樣,在k-step得到採樣樣本

3.最終得到跟訓練集樣本數大小的的M個採樣樣本,然後執行梯度下降法


在受限波爾茨曼機(RBM)一文中,我們介紹了RBM的聯合分布表達式,以及Inference問題,當時我們遺漏了它的Learning問題,求解RBM的學習問題要基於CD-Learning的思想,我們這一篇就介紹RBM的參數估計解法。

開始之前,先回顧一下RBM的概率圖模型表示:

以及其聯合分布形式:


給定訓練數據集S,其樣本個數是M,能觀測的變量是v:

那麼對觀測變量的對數似然函數為:

對似然函數化簡的等號右邊第一項求導有:

對等號右邊第二項求導有:

所以,對數似然函數的梯度可以化為:

其中要求解的參數θ是:


有了對數似然函數的梯度,我們利用梯度法求解RMB的參數θ.

先看邊的權重參數w。根據能量函數表達式有:

於是:


等號右邊第一項可以化簡:

註:RBM的隱狀態取值0或1

等號右邊第二項化簡為:

於是得到對p(v)對邊權重w的梯度表達式

按照上面的化簡思路,p(v)對α,β的梯度表達式更加容易得到,這裡不再贅述。我們重點關注的是對於梯度的第二個式子:

它很難直接求解,我們得利用CD-Learning的思路構造梯度進行近似推斷求解。


我們觀察上一節梯度的第二個式子,它其實是p(v0下的期望:

那麼我們就可以利用MCMC採樣思想,得到其期望。採取Gibbs的k-step算法(即CD-k)進行採樣:

它的採樣過程如下圖所示:

對每個樣本都會進行一次Gibbs採樣過程,最終會得到M個採樣樣本,從而最終得到邊權重wij的梯度:

然後執行梯度法即可!

相關焦點

  • 最前沿:百家爭鳴的Meta Learning/Learning to learn
    在Machine Learning時代,複雜一點的分類問題效果就不好了,Deep Learning深度學習的出現基本上解決了一對一映射的問題,比如說圖像分類,一個輸入對一個輸出,因此出現了AlexNet這樣的裡程碑式的成果。但如果輸出對下一個輸入還有影響呢?
  • 英語作文:Learning Foreign Language
    英語寫作>中小學英語作文>正文英語作文:Learning Foreign Language 2013-01-15 15:02 來源:恆星英語 作者:   學習外語(Learning Foreign Language)   I love learning
  • 【徵稿】Evolutionary Transfer Learning and Transfer Optimisation
    In machine learning, transfer learning aims to transfer knowledge acquired in one problem domain, i.e. the source domain, onto another domain, i.e. the target domain.
  • 小樣本學習(Few-shot Learning)綜述
    問題定義人類非常擅長通過極少量的樣本識別一個新物體,比如小孩子只需要書中的一些圖片就可以認識什麼是「斑馬」,什麼是「犀牛」。在人類的快速學習能力的啟發下,研究人員希望機器學習模型在學習了一定類別的大量數據後,對於新的類別,只需要少量的樣本就能快速學習,這就是 Few-shot Learning 要解決的問題。
  • Multi-Label Classification with Deep Learning
    Deep learning neural networks are an example of an algorithm that natively supports multi-label classification problems.
  • ​大牛的《深度學習》筆記,Deep Learning速成教程
    聽起來感覺deeplearning很牛那樣。那什麼是deep learning?為什麼有deep learning?它是怎麼來的?又能幹什麼呢?目前存在哪些困難呢?這些問題的簡答都需要慢慢來。咱們先來了解下機器學習(人工智慧的核心)的背景。
  • 如何理解深度學習分布式訓練中的large batch size與learning rate...
    雷鋒網 AI科技評論按,本文源自譚旭在知乎問題【如何理解深度學習分布式訓練中的large batch size與learning rate的關係?】下的回答,雷鋒網 AI科技評論獲其授權轉載。問題詳情:在深度學習進行分布式訓練時,常常採用同步數據並行的方式,也就是採用大的batch size進行訓練,但large batch一般較於小的baseline的batch size性能更差,請問如何理解調試learning rate能使large batch達到small batch同樣的收斂精度和速度?
  • Taking advantage of online learning, in nephrology and beyond!
    The outbreak has forced us to replace a significant amount of classroom teaching with online learning. Some of us are still getting used to it.
  • CFA二級思維導圖分享:機器學習(Machine Learning)
    CFA二級思維導圖分享:機器學習(machine learning)Reading7主要了解機器學習的一些常見概念,主要分類、了解常用算法的原理及其用途。監督學習算法監督學習可應用於回歸和分類問題,回歸和分類的區別在於輸出的結果是連續變量還是分類變量。常見的回歸算法有懲罰性回歸算法,LASSO。
  • 吳恩達deeplearning.ai五項課程完整筆記了解一下?
    自吳恩達發布 deeplearning.ai 課程以來,很多學習者陸續完成了所有專項課程並精心製作了課程筆記,在此過程中機器之心也一直在為讀者推薦優質的筆記。上個月,deep learning.ai 第五課發布,該系列課程最終結課。Mahmoud Badry 在 GitHub 上開源了五項課程的完整筆記,介紹了包括序列模型在內的詳細知識點。
  • X-ray Imaging through Machine LearningI 本周物理學講座
    報告人:Ge Wang,Rensselaer Polytechnic Institute時間:8月9日(周四)15:00單位:中科院高能所地點:化學樓C305Computer vision and image analysis are great examples of machine learning
  • 牛津版高二上期Unit 2 Continuous Learning閱讀課說課設計
    In addition, after many years of English learning, they』ve known many words, sentences and some skills to solve English problems.
  • 近13年來在 deep metric learning 領域的進展實際並不存在?
    Facebook AI 和 Cornell Tech 的研究人員近期發表研究論文預覽文稿,聲稱近十三年 (deep) metric learning 領域的研究進展(ArcFace, SoftTriple, CosFace 等十種算法) 和十三年前的基線方法(Contrastive, Triplet) 比較並無實質提高。真是這樣的嗎?
  • 【預告】施汝為系列講座 | 武漢大學劉惠軍教授:Machine learning in the study of ...
    主題:Machine learning in the study of thermoelectric and topological materials主講人:劉惠軍 教授單位:武漢大學主辦方:合肥微尺度物質科學國家研究中心
  • Machine Learning Cheat Sheet
    Gradient descent methodBatch gradient descent:Stochastic gradient descent:Choice of learning rateLoss function's changes
  • Active Learning: 一個降低深度學習時間,空間,經濟成本的解決方案...
    進一步的思路是圖二的紅實線認知:要多少是多啊,先訓著再說,慢慢的就會發現即便用自己有的一小部分數據集好像也能達到一個不錯的分類性能,這個時候就遇到一個問題:自己的數據集樣本數到底有沒有到達臨界值呢?這個問題也很關鍵,它決定了要不要繼續花錢去找人標註數據了。
  • Machine Learning: 一部氣勢恢宏的人工智慧發展史
    但也許我們不曾想到的事機器學習乃至人工智慧的起源,是對人本身的意識、自我、心靈等哲學問題的探索。而在發展的過程中,更是融合了統計學、神經科學、資訊理論、控制論、計算複雜性理論等學科的知識。kNN的優點在於易於理解和實現,無需估計參數,無需訓練,適合對稀有事件進行分類,特別適合於多分類問題(multi-modal,對象具有多個類別標籤), 甚至比SVM
  • 帶學生走進一個充滿「問題」的課堂,讓「課堂」變成「學堂」
    這些資源可以包括網上資源、輔助問題和老師自身經歷去幫助學生進一步回答問題。老師的主要目的是讓學生們去反覆思考,並自發的提出更多問題。如果不適合,到底是哪裡有問題,是不是因為溪水的質量不適合玩耍?而我們又如何得知溪水的質量?
  • 302頁吳恩達Deeplearning.ai課程筆記,詳記基礎知識與作業代碼
    原標題:302頁吳恩達Deeplearning.ai課程筆記,詳記基礎知識與作業代碼 機器之心整理 作者:Wan 這些識別錯誤可能跟全連接網絡自身的局限性有關,包括參數共享、過擬合傾向(參數數量)和層級特徵方面,而這些問題將在卷積神經網絡裡得到改善。 2.
  • 分類問題-----多標籤(multilabel)、多類別(multiclass)
    另外,以下幾個問題是需要關注和進一步研究的Dimensionality Reduction 降維Label Dependence 標註依賴Active learning 主動學習Multi-instance multi-label learning (MIML) 多實例多標籤Multi-view