貝葉斯統計是統計的一個分支,它的特點是把我們感興趣的量(比如統計模型的參數)看作隨機變量。給定觀察數據後, 我們對這些量的後驗分布進行分析從而得出結論。雖然貝葉斯統計的核心思想已歷經很多年了, 但貝葉斯的思想在過去近20年對機器學習產生了重大影響, 因為它在對真實世界現象建立結構化模型時提供了靈活性。算法的進步和日益增長的計算資源使得我們可以擬合豐富的、高度結構化的模型, 而這些模型在過去是很棘手的。
這個路線圖旨在給出貝葉斯機器學習中許多關鍵思想的指引。如果您正考慮在某些問題中使用貝葉斯方法, 您需要學習"核心主題"中的所有內容。即使您只是希望使用諸如 BUGS、Infer.NET,或 Stan等軟體包, 這些背景知識也對您很有幫助。如果這些軟體包不能馬上解決您的問題, 但知道模型的大致思想可幫助您找出問題所在。
如果您正考慮研究貝葉斯機器學習, 那麼許多論文會假設您已經掌握了核心主題的內容以及部分進階主題的內容, 而不再給出參考文獻。閱讀本路線圖時, 我們不需要按順序學習, 希望本文可以在您需要時為您提供幫助。
項目參考:
https://metacademy.org/roadmaps/rgrosse/bayesian_machine_learning
本文目錄結構如下:
1. 核心主題
1.1 中心問題
參數估計
模型比較
1.2 非貝葉斯方法
最大似然
正則化
EM算法
1.3 基本推斷算法
MAP估計
Gibbs採樣
馬爾科夫鏈蒙特卡洛(MCMC)
變分推斷(Variational inference)
1.4 模型
混合高斯
因子分析
隱馬爾科夫模型(HMM)
1.5 貝葉斯模型比較
貝葉斯信息準則(Bayesian information criterion)
拉普拉斯近似(Laplace approximation)
2. 進階主題
2.1 模型
邏輯回歸(Logistic regression)
貝葉斯網絡(Bayesian networks)
Latent Dirichlet allocation(LDA)
線性動態系統(Linear dynamical systems)
稀疏編碼(Sparse coding)
2.2 貝葉斯非參數
高斯過程(Gaussian processes)
Chinese restaurant process(CRP)
Hierarchical Dirichlet process
Indian buffet process(IBP)
Dirichlet diffusion trees
Pitman-Yor process
2.3 採樣算法
摺疊Gibbs採樣(Collapsed Gibbs sampling)
哈密爾頓蒙特卡洛(Hamiltonian Monte Carlo)(HMC)
切片採樣(Slice sampling)
可逆跳躍MCMC(reversible jump MCMC)
Sequential Monte Carlo(SMC)
粒子濾波器(Particle filter)
退火重要性採樣(Annealed importance sampling)
2.4 變分推斷
變分貝葉斯(Variational Bayes)
平均場近似(Mean field approximation)
期望傳播(expectation propagation)
2.5 信念傳播(Belief propagation)
2.5.1 樹結構圖模型
Sum-product algorithm
Max-product algorithm
2.5.2 非樹結構圖模型
循環信念傳播(Loopy belief propagation)
連接樹算法(Junction tree algorithm)
2.6 理論
無信息先驗(uninformative priors)
最大似然的漸進(asymptotics of maximum likelihood)
來源:cnblogs