夢裡也能見到她,你大概是喜歡這個姑娘:從貝葉斯到極大似然估計

2021-02-26 精算後花園

本文的目的是讓沒有學過貝葉斯公式的同學對貝葉斯公式有個具體生動的印象。已經掌握得很好的同學可以略過這篇文章。限於作者水平,面面俱到是不可能的,這句話也同樣適用於本公眾號的其他文章。畢竟孫子也說過,備前則後寡,備左則右寡,無所不備,則無所不寡。

我們設想一個場景:

某個晚上,Jackie夢見了一個姑娘。

這件事情顯然可以有兩種可能性:

其一,Jackie喜歡這個姑娘,因此寤寐思服。

其二,Jackie不喜歡這個姑娘,夢見她純屬偶然。

我們把事件「Jackie夢見這個姑娘」記作B1;

把事件「Jackie沒有夢見這個姑娘」記作B2。

把事件「Jackie喜歡這個姑娘」記作A1;

把事件「Jackie不喜歡這個姑娘」記作A2。

為了讓這個場景更加生動,作者決定寫一段話解釋各事件的概率是如何設(Xia)定(Bai)的。

因為這個姑娘還有些漂亮,不妨假定「Jackie喜歡這個姑娘」的概率為0.6,略高於「Jackie不喜歡這個姑娘」的概率0.4。

又因為Jackie在武漢某所「男女三比七」的財經類院校就讀,而作為本文作者,Jackie顯然是一個專情的人,如果喜歡一個姑娘,只要夢見女生,夢見的就一定是這位姑娘,所以「Jackie喜歡這個姑娘的前提下夢見這個姑娘」的概率大致為0.7;如果不喜歡這個姑娘呢,夢見她的概率和夢見男生的概率差不多,為0.3。

我們可以畫出以下樹狀圖:

Jackie在各情形下夢見這個姑娘的概率:

Jackie喜歡並且夢見這個姑娘的概率:

給定夢見的前提,Jackie喜歡該姑娘的條件概率:

同樣地,給定夢見的前提,Jackie不喜歡該姑娘的條件概率:

顯然前者更大。

所以說,會在夢裡遇到她,大概潛意識就是很喜歡這個姑娘了。

證畢。

我們計算條件概率時用到的就是貝葉斯公式。

從上述的例子我們可以發現,「夢見這個姑娘」這個事件最像是發生在「喜歡這個姑娘」的前提下。這個推斷是符合人們的經驗事實的。

「最像」就是「極大似然」的意思。這就暗含了極大似然估計估計的思想:已經發生的事情,就是最可能會發生的。

嚴格的說,極大似然估計的目的是:利用已知的樣本結果,反推最有可能(最大概率)導致這樣結果的參數值。

看完這個例子,大家對貝葉斯公式的理解有沒有更加具體呢?來道習題檢驗一下吧。這是IFoA2016年4月的第四道真題,也是2017年慕再精算競賽裡的題源之一。

答案如下:

當然,本文離不開一個最重要的前提假設:

首先得有這樣一個姑娘存在

重要的事用英文再說一遍:

We may assume that GuNiang exists first

--完--

歡迎置頂

你可能還想讀

戀愛險的起源

【CT3系列】MGF 矩量母函數

英國精算師考試中計算器使用經驗分享

【CT3導引篇】CT3 Probability and Statistics 概率論與數理統計

相關焦點

  • 從最大似然估計開始,你需要打下的機器學習基石
    而這些討論或多或少都離不開最大似然估計,因為它是參數估計的基礎之一,也是構建模型的基石。在本文中,我們從最大似然估計到貝葉斯推理詳細地討論了機器學習的概率論基石,並希望能為讀者的預習與複習提供優秀的參考資源。什麼是參數?在機器學習中,我們經常使用一個模型來描述生成觀察數據的過程。
  • 基於貝葉斯推斷的回歸模型(理論篇)| 機器學習你會遇到的「坑」
    極大似然估計(Maximum Likelihood Estimation)似然,也就是條件概率P(A|B),是給定條件B後,事件A發生的概率。如果模型攜帶參數,那麼條件概率的意思就是就是給定參數,數據出現的概率,極大似然法選擇最大化條件概率,本質意義上是我們在很多參數中選擇一個能使數據出現概率最大的參數。
  • 奧卡姆剃刀和貝葉斯估計
    例子3: 誰把花盆砸了假設你一天晚上到家,看到你擺在客廳裡的一盆花被砸在地板上,除了這盆花之外,家裡沒有任何其他的變化。你腦子裡立刻列出幾個可能的原因(1)花盆被一個鬼魂撞倒了,(2)花盆被一個偷偷闖入你家裡的人碰倒了,並且他沒有拿任何東西。(3)花盆被你家養的貓弄砸了。首先,這三個原因都可以很好的解釋這個現象。
  • 統計學筆記|最大似然估計以及似然比檢驗
    最大似然估計想必大家都學過,而似然比檢驗(likelihood ratio test,LR test)在文獻中也是常客,但一直沒有對其深入理解,因此本文希望對其有一個相對完整的闡述。一、似然函數    說到似然函數,就不得不說一下似然性,似然性和概率是一組相對的概念。
  • 最大似然估計
    的取值就成為了關鍵之處。一個簡單的想法就是從這個分布中隨機抽取樣本  的最可能的值,也就是說參數的選擇會使得這個採樣的概率最大化。 的最大似然估計。Remark. 最大似然函數不一定是唯一的,甚至不一定是存在的。
  • 透徹理解貝葉斯推理
    前邊在文章透徹理解最大似然估計,闡述如何理解最大似然進行參數估計,本文將討論使用貝葉斯推理進行參數估計。我還將展示如何將此方法視為最大似然的概括,以及在何種情況下這兩種方法是等價的。貝葉斯定理在介紹貝葉斯推理之前,有必要理解貝葉斯定理。貝葉斯定理真的很酷。
  • 貝葉斯和貝葉斯公式
    他對統計推理的主要貢獻是使用了"逆概率"這個概念,並把它作為一種普遍的推理方法提出來。貝葉斯定理原本是概率論中的一個定理,這一定理可用一個數學公式來表達,這個公式就是著名的貝葉斯公式。 貝葉斯公式是1763年被發現後提出來的:假定B1,B2,……是某個過程的若干可能的前提,則P(Bi)是人們事先對各前提條件出現可能性大小的估計,稱之為先驗概率。
  • 貝葉斯及概率統計角度
    這個問題,就是所謂的逆概問題。貝葉斯是機器學習的核心方法之一。這背後的深刻原因在於,現實世界本身就是不確定的,人類的觀察能力是有局限性的,我們日常所觀察到的只是事物表面上的結果,沿用剛才那個袋子裡面取球的比方,我們往往只能知道從裡面取出來的球是什麼顏色,而並不能直接看到袋子裡面實際的情況。這個時候,我們就需要提供一個假設(hypothesis)。
  • 韭菜防割手冊:投資不懂「貝葉斯」,買遍A股也枉然
    股票投資這個事情,到了最後,你就會發現,一切都是數學。?雖然很多人不喜歡這個結論,但我還是要說,一個人在股市的上限,是由他的數學水平決定的。?那麼下限呢??顯而易見,現在的我們就是啊。?股價在某一段時間內的上下波動,就是數學上的時間序列分析,我們每一次的買入賣出,都遵循典型的概率論理論。
  • 最大似然法估計二項式分布參數
    今天我們再來看看最大似然法如何求解二項式分布參數。1.二項式分布與似然值估計公式如在人們對兩種口味飲料無偏好時,即人們喜歡香橙口味的概率p=0.5,喜歡葡萄口味的概率p=0.5,那麼7個人中4個人喜歡香橙口味的概率為0.273。計算公式如下:
  • 貝葉斯機器學習到底是什麼?看完這篇你就懂了
    P(D|θ) 是樣本D相對於類標記θ的類條件概率,也就是我們理解的「似然」。人們經常會使用可能性來評估模型,如果對實際數據能做出更高可能性的預測,那麼這個模型自然更為有效。那麼,等式左邊的P(θ|D) 就是我們最終想得到的東西,也就是基於先驗概率與數據所獲得的模型參數所呈現的概率分布。
  • 清華大學計算機科學與技術系朱軍教授:機器學習裡的貝葉斯基本理論...
    ;p(D|θ)是似然函數,給定一個模型θ的情況下描述這個數據的似然;我們的目標是想獲得這個後驗分布,是看到數據之後我們再重新看模型本身的分布情況。這個問題可以描述成這樣:我們用M1表示一個model class,可能是一個線性模型,我們用M2表示另外一個model class,是非線性模型,我們在同樣數據集D的情況下,我們可以去比較這兩個量哪個大,這個量是描述的在M1下我們觀察到訓練集的一個似然,另外一個是在M2的情況下觀察的數據集似然,可以通過這個比較看我應該選擇哪一種模型,這是一個用貝葉斯方法做模型選擇的一個基本的規則。
  • 貝葉斯定理還能用來把妹......
    不僅如此,我們對於這個模型的參數可能會有一個最初始的信仰,稱之為先驗假設,一旦設置後了之後,我們就可以聽由觀察到的數據指導模型參數更新了。在這種觀點中,我們的模型參數不再是一個參數,而是一個分布了。[1]超模君:「所以叫你先去試試啊!然後你通過她的反應,看看她對你好感如何。假如她跟你聊得很來,不就說明其實沒有你原本想的那麼難,但是她要是直接不理你,那估計就沒什麼機會了。」
  • 基於人工智慧的貝葉斯分類算法
    ,根據這個條件來推測某一個事件    例子:有一黑盒裡面有若干個白球和黑球,當我們取出一個或幾個球之後,  觀察這些球的顏色,推斷出黑白球的比例  通過一些信息推出未知的信息,這就是逆向概率  樸素貝葉斯算法就是應用先前事件的有關數據來估計未來事件發生的概率    根據例題推導貝葉斯分類算法
  • 這6點幫你解決參數未知的重要問題 | AI知識科普
    今天,班主任就給你們講一個在機器學習中重要的方法——極大似然估計。這是一個,能夠讓你擁有擬合最大盈利函數模型的估計方法哦!01 現實意義在機器學習中,我們經常會使用一個模型來描述生成數據的過程。若對數似然函數可導,則可以通過求導的方式,解下列方程組,得到駐點,然後分析該駐點是極大值點:稱為參數的極大似然估計值,其相應的統計量稱為 的極大似然估計量。極大似然估計簡記為MLE或 。
  • 提前一年的押題——最大似然估計
    春節在家,百無聊賴,與小侄子玩牌,因為張老師還是個魔術愛好者,一手控牌技術出神入化,於是小侄子連續5把抽到的牌,都是一張紅桃六,大叫著我搞了什麼鬼,我問他,為什麼不是巧合,小侄子一臉看弱智的表情反問「怎麼可能」——我們每個人都有一個根植內心、不證自明的命題:小概率事件不發生,如果「發生」,必有隱情
  • 貝葉斯模型下
    而樸素貝葉斯方法卻顯示出無比的優勢。因為它是基於統計方法的,只要訓練樣本中有更新的垃圾郵件的新詞語,哪怕它們是火星文,都能自動地把哪些更敏感的詞語(如「髮」、「㊣」等)給凸顯出來,並根據統計意義上的敏感性給他們分配適當的權重,這樣就不需要什麼人工了,非常省事。你只需要時不時地拿一些最新的樣本扔到訓練集中,重新訓練一次即可。
  • 看《地球最後的夜晚》,知道這是男主的夢,夢中可以見到想見的人
    我覺得還蠻好的電影,你曾經深愛一個姑娘,她對你也不錯,但你們中間總有一點距離,有一天她消失在了的生活當中,你惆悵的活了許多年,每天活在回憶當中,終於因為一個契機你回去尋找了那個姑娘,在找尋的道路上不斷的抽絲剝繭,你發現她送給你的那本她視為珍寶的書,實際上卻是她陰險的開端,其實剛開始她送給他書我也沒理解
  • 貝葉斯定理的通俗理解
    樸素貝葉斯是一種基於貝葉斯定理的簡單概率分類器(分類又被稱為監督式學習,所謂監督式學習即從已知樣本數據中的特徵信息去推測可能出現的輸出以完成分類
  • [257]先驗概率、似然函數與後驗概率(1)
    例如,$$p$$可以是搶火車票開始時,搶到某一車次的概率。這是對不確定性(而不是隨機性)賦予一個量化的數值的表徵,這個量化數值可以是一個參數,或者是一個潛在的變量。 先驗概率僅僅依賴於主觀上的經驗估計,也就是事先根據已有的知識的推斷, 在應用貝葉斯理論時,通常將先驗概率乘以似然函數(likelihoodfunction)再歸一化後,得到後驗概率分布,後驗概率分布即在已知給定的數據後,對不確定性的條件分布。