什麼是極大似然估計?

2021-03-02 對半獨白


 導語

統計學中,我們經常能聽到極大似然估計,或者最大似然估計,它是一種參數估計方法。在機器學習中,邏輯回歸就是基於極大似然估計來計算的損失函數。那麼,如何直觀理解極大似然估計?

極大似然估計(maximum likelihood estimation,MLE),顧名思義,「極大」意為「最有可能的」,「似然」意為「看起來像的」,「估計」的意思則可以理解為「就是這樣的」。

所以,極大似然估計的直譯就是:最有可能看起來像的,就是這樣的。就是說,以最大概率為標準來判斷結果,即叫做極大似然估計。 


比如,在你面前出現一個白人,你來判斷這個人來自哪個大洲。不出意外,你會說來自歐洲。這便是用了極大似然估計的思想。

了解了極大似然估計的思想,下面通過一個具體的例子來說明極大似然估計的求解步驟。

一個黑色箱子裡有黑白兩種顏色的小球若干,每次有放回的拿球,已知拿到白球的概率範圍是[0.2,0.8],拿三次結果兩黑一白,問取出白球概率的極大似然估計是多少。

假設取球事件為y,取到白球時y=1,概率為p,取到黑球時y=0,概率為1-p。由於是獨立事件,三次拿球兩黑一白的概率可以表示為:P(y = 0 | p)P(y = 0 | p)P(y = 1 | p) = (1 - p)(1 - p)p = p^3 - 2p^2 + p。白球的極大似然估計就是求使得這個概率表達式最大的p值。 


既然是求最大值,而上式可導,我們便可對上式進行求導並令其等於0,3p^2 - 4p + 1 = 0。求此一元二次方程的根得p=1/3或p=1,可知原式在[0, 1/3]區間單調遞增,在[1/3, 1]區間單調遞減。因此,在白球概率範圍[0.2,0.8]內,當p=1/3時表達式取得最大值,取得白球的概率的極大似然估計為1/3。

至此,便可總結出極大似然估計的求解步驟:

1> 寫出概率表達式,也可以叫似然表達式,似然表達式值的大小意味著這組樣本值出現的可能性的大小。
2> 對似然表達式求導,必要時進行預處理,比如取對數(邏輯回歸需要),令其導數為0,得到似然方程。
3> 求解似然方程,得到的參數解即為極大似然估計的解。 


這裡多說一句,由於邏輯回歸的ω向量可能很大,參數個數很多,導致方程組很難求解。在這種情況下,一般通過梯度上升法逼近真實的ω,這也符合機器學習的訓練過程。

以上便是極大似然估計的講解,敬請期待下節內容。

結語

感謝各位的耐心閱讀,後續文章於每周日奉上,歡迎大家關注小鬥公眾號 對半獨白

相關焦點

  • 極大似然估計詳解
    轉化為估計參數。這裡就將概率密度估計問題轉化為參數估計問題,極大似然估計就是一種參數估計方法。當然了,概率密度函數的選取很重要,模型正確,在樣本區域無窮時,我們會得到較準確的估計值,如果模型都錯了,那估計半天的參數,肯定也沒啥意義了。
  • 一文通俗解釋極大似然估計
    針對上述問題, 極大似然估計為我們提供了一種很好的解決思路,本文將給大家解釋極大似然估計的原理和分析步驟。,而極大似然估計可以通過觀察當前數據來估計模型的最佳參數,換句話也就是說在所有的模型參數 現實生活中也經常用到極大似然估計,在這裡跟大家分享一下小編的一段親身經歷:在天氣晴朗的某一天,身為大好青年的小編早早的去了圖書館學習。
  • 一文讀懂矩估計、極大似然估計和貝葉斯估計
    參數估計最主要的方法包括矩估計法,極大似然估計法,以及貝葉斯估計法。機器學習中常常使用的是極大似然估計法和貝葉斯估計法。極大似然估計法簡稱MLE(Maximum Likelihood Estimation).
  • 通俗理解系列 | 極大似然估計
    極大似然估計是一種機器學習領域的重要思想,是一種參數估計的算法。該算法理論思想意義重於實際應用。在真實的應用中,多是參考其思想進行拓展的。
  • 極大似然估計法的理解指南
    今天講一個在機器學習中重要的方法——極大似然估計。這是一個,能夠讓你擁有擬合最大盈利函數模型的估計方法。
  • 霸王柘科普 極大似然估計法(MLE)和似然值(Likelihood)
    所以在本節,我努力用最樸實的語言,最簡單的案例,來給讀者初步地講解極大似然估計法和似然值這兩個概念。  【極大似然估計法】 簡單來說,極大似然估計法的目的可以理解為「估計概率函數模型中的參數」。因此,概率(Probability)和極大似然估計(Maximum Likelihood Estimation, MLE)在定義和過程上恰恰互為對立面:概率是用已知的概率模型參數來求算目標事件發生的可能性,而極大似然估計則是用已觀察到的事件的概率反過來推測概率模型中的參數。
  • 最大似然法估計正態分布參數
    最大似然估計定義最大似然估計(maximum likelihood)就是利用已知的樣本結果,反推最具有可能(最大概率)導致這些樣本結果出現的模型參數值。換句話說,極大似然估計提供了一種給定觀察數據來評估模型參數的方法,即「模型已定,參數未知」。
  • 北大經院工作坊第186場 | 遞歸擴散模型的近似半參數極大似然估計...
    北大經院工作坊第186場 | 遞歸擴散模型的近似半參數極大似然估計(計量、金融和大數據分析工作坊) 2020-12-17 20:00 來源:澎湃新聞·澎湃號·政務
  • 最大似然估計是個什麼鬼?
    這貌似是同語反覆,實際是最大似然估計的邏輯基礎。時間是單向的,現實一旦發生,便不可逆轉。究竟是哪些系統因素與偶然因素一起共同導致了現實的發生,我們永遠不可能確切知道。顧名思義,最大似然估計,目標是找到現實世界在什麼情況下最可能發生,必須有個衡量似然性大小的指標,還要有個判斷似然性的變化幅度是否顯著的標準,否則無法確定什麼時候達到了最大。這個指標是現實世界在過去發生的概率,即似然性。這裡,我們堅持實用主義,只考慮萬分之一(0.0001)到萬僅一失(0.9999)的概率,也就是只看現實世界在過去的概率從0.0001到0.9999之間變化的軌道。
  • 夢裡也能見到她,你大概是喜歡這個姑娘:從貝葉斯到極大似然估計
    「最像」就是「極大似然」的意思。這就暗含了極大似然估計估計的思想:已經發生的事情,就是最可能會發生的。嚴格的說,極大似然估計的目的是:利用已知的樣本結果,反推最有可能(最大概率)導致這樣結果的參數值。看完這個例子,大家對貝葉斯公式的理解有沒有更加具體呢?來道習題檢驗一下吧。這是IFoA2016年4月的第四道真題,也是2017年慕再精算競賽裡的題源之一。
  • 提前一年的押題——最大似然估計
    春節在家,百無聊賴,與小侄子玩牌,因為張老師還是個魔術愛好者,一手控牌技術出神入化,於是小侄子連續5把抽到的牌,都是一張紅桃六,大叫著我搞了什麼鬼,我問他,為什麼不是巧合,小侄子一臉看弱智的表情反問「怎麼可能」——我們每個人都有一個根植內心、不證自明的命題:小概率事件不發生,如果「
  • 零基礎概率論入門:最大似然估計
    在這篇文章中,我將解釋用於參數估計的最大似然方法是什麼,然後通過一個簡單的例子來展示這一方法。其中一些內容需要概率論的一些基礎概念,例如聯合概率和獨立事件。所以如果你覺得需要溫習一下這些概念的話,可以參考我的上一篇文章。在機器學習中,我們經常使用模型描述從數據中觀測結果的過程。
  • 從最大似然估計開始,你需要打下的機器學習基石
    而這些討論或多或少都離不開最大似然估計,因為它是參數估計的基礎之一,也是構建模型的基石。在本文中,我們從最大似然估計到貝葉斯推理詳細地討論了機器學習的概率論基石,並希望能為讀者的預習與複習提供優秀的參考資源。什麼是參數?
  • 詳解最大似然估計(MLE)、最大後驗概率估計(MAP),以及貝葉斯公式的理解
    最大似然估計(MLE)假設有一個造幣廠生產某種硬幣,現在我們拿到了一枚這種硬幣,想試試這硬幣是不是均勻的。即想知道拋這枚硬幣,正反面出現的概率(記為θ)各是多少?這是一個統計問題,回想一下,解決統計問題需要什麼? 數據!於是我們拿這枚硬幣拋了10次,得到的數據(x0)是:反正正正正反正正正反。
  • 獨家 | 一文讀懂最大似然估計(附R代碼)
    當你建立了一個模型之後,它給了你預期的結果,但是它背後的過程是什麼呢?作為一個數據科學家,你需要對這個經常被問到的問題做出解答。 例如,假設您建立了一個預測公司股價的模型。您注意到夜深人靜的時候,股票價格上漲得很快。背後可能有多種原因,找出可能性最大的原因便是最大似然估計的意義所在。這一概念常被用於經濟學、MRIs、衛星成像等領域。
  • 似然比檢驗 - CSDN
    似然比檢驗的思想是:「如果參數約束是有效的,那麼加上這樣的約束不應該引起似然函數最大值的大幅度降低。也就是說似然比檢驗的實質是在比較有約束條件下的似然函數最大值與無約束條件下似然函數最大值。」 可以看出,似然比檢驗是一種通用的檢驗方法(比
  • 參數估計(一):點估計
    所謂點估計,就是用一個參數點θhat來估計另外一個未知參數θ。它區別於區間估計。它主要有矩估計法、極大似然估計法和貝葉斯法。A. 矩估計法(K·皮爾遜)這個方法的思想非常簡單,在任意一本概率論與數理統計課本中都能找到其表述。思想是用樣本矩(sample moments)來估計總體矩。
  • 從最大似然到EM算法淺解
    這個函數放映的是在不同的參數θ取值下,取得當前這個樣本集的可能性,因此稱為參數θ相對於樣本集X的似然函數(likehood function)。記為L(θ)。這裡出現了一個概念,似然函數。還記得我們的目標嗎?我們需要在已經抽到這一組樣本X的條件下,估計參數θ的值。怎麼估計呢?似然函數有啥用呢?那咱們先來了解下似然的概念。
  • 【機器學習基本理論】詳解最大似然估計(MLE)、最大後驗概率估計(MAP),以及貝葉斯公式的理解
    最大似然估計(Maximum likelihood estimation, 簡稱MLE)和最大後驗概率估計(Maximum a posteriori estimation, 簡稱MAP)是很常用的兩種參數估計方法,如果不理解這兩種方法的思路,很容易弄混它們。下文將詳細說明MLE和MAP的思路與區別。先講解MLE的相應知識。
  • 最小二乘法原理(中):似然函數求權重參數
    上式的意思是 m 個樣本的誤差分布的概率乘積,這就是概率似然函數。提到似然函數,那不得不提最大似然函數估計吧,為什麼呢?,它能使得事件儘可能地逼近樣本值,這就是最大似然估計。似然估計本質本質便是根據已有的大量樣本(實際上就是利用已知的條件)來推斷事件本身的一些屬性參數的方法,最大估計更是最能反映這些出現的樣本的,所以這個參數值也是最可靠和讓人信任的,得到這個參數值後,等來了一個新樣本 X(i+1) 後,我們可以預測它的標籤值。