極具震撼力的貝葉斯定理,作為數據科學人的您咋能錯過?

2021-01-08 CDA數據分析師

作者 | KHYATI MAHENDRU編譯 | CDA數據分析師An Introduction to the Powerful Bayes' Theorem for Data Science Professionals

概述

貝葉斯定理是統計學中最強大的概念之一,而貝葉斯定理也是數據科學專業人員必須知道的定理熟悉貝葉斯定理,其工作原理及其多種多樣的應用本文中有許多直觀的例子來理解貝葉斯定理背後的思想介紹

概率是許多數據科學算法的核心 。實際上,解決這麼多數據科學問題的方法本質上都是概率性的-因此,我始終建議在著手研究算法之前,著重學習一下統計數據和概率。

但我看到很多有能力的數據科學家都在迴避統計這一方面的知識,尤其是貝葉斯統計。許多分析師和數據科學家仍然無法理解這一點。我相信你們很多人都對此點頭贊同吧!

貝葉斯定理是貝葉斯統計的一個主要方面,是由生活在18世紀的僧侶託馬斯·貝葉斯(Thomas Bayes)提出的。我們仍在學習貝葉斯統計的這一事實,表明他的作品在多個世紀以來都具有巨大的影響力!貝葉斯定理使我們能夠解決複雜的數據科學問題,並且仍然領先在世界領先的大學教授。

在本文中,我們將詳細探討貝葉斯定理及其應用,包括樸素貝葉斯分類器和判別函數等。本文有很多要解壓的內容,讓我們開始吧!

目錄

貝葉斯定理的前提條件貝葉斯定理是什麼?貝葉斯定理的一個例證貝葉斯定理的應用樸素貝葉斯分類器判別函數和決策面貝葉斯參數估計貝葉斯參數估計的演示貝葉斯定理的前提條件

在進入貝葉斯定理的世界之前,我們需要了解一些概念。這些概念本質上是理解貝葉斯定理的前提條件。

1.實驗

當您聽到「實驗」一詞時,您想到的第一張圖片是什麼?包括我在內的大多數人都想像有一個充滿試管和燒杯的化學實驗室。概率論中的實驗概念實際上非常相似:

實驗是在受控條件下執行的有計劃的操作。

實驗的例子包括拋硬幣,擲骰子和從洗好的牌中抽出一張。

2.樣本空間

實驗的結果稱為實驗結果。事件的所有可能結果的集合稱為樣本空間。例如,如果我們的實驗是擲骰子並記錄其結果,則樣本空間將為:

S1 = {1,2,3,4,5,6}

當我們扔硬幣時,樣本將是什麼?在看到下面的答案之前,請仔細的想一想:

S2 = {H,T}

3.事件

事件是實驗結果的集合(即樣本空間的子集)。

讓我們回到擲骰子的實驗中並將事件E和F定義為:

E =獲得偶數= {2,4,6}F =獲得大於3的數字= {4,5,6}這些事件發生的可能性:

P(E)=有利結果數/可能結果總數= 3/6 = 0.5 P(F)= 3/6 = 0.5

集合論中的基本運算,也就是事件的併集和交集是可能的,因為一個事件就是一個集合。

E∪F= {2,4,5,6}和E∩F= {4,6}

現在考慮一個事件G =獲得一個奇數:

那麼E∩G=空集=Φ

這種事件稱為不相交事件。這些也稱為互斥事件,因為一次實驗只能在兩個事件中發生一個:

4.隨機變量

隨機變量的確切含義就像它聽起來的那樣—一個具有隨機值的變量,每個值都有一定的概率(可能為零)。它是在實驗的樣本空間上定義的實值函數:

讓我們來看一個簡單的示例(請參考上面的圖片)。在拋硬幣實驗的樣本空間上定義一個隨機變量X。如果獲得「 Heads」(正面),則值為+1;如果獲得「 Tails」(反面),則值為-1。然後,X取值為+1和-1,概率為1/2。

假設Y是某一天某一地點的觀察溫度(攝氏溫度)。因此,我們可以說Y是一個連續的隨機變量,定義在相同的空間上,S =[0,100](攝氏溫標定義在0攝氏度到100攝氏度之間)。

5.詳盡的事件

如果必須在任何時間發生至少一個事件,則認為一組事件是詳盡的。因此,如果A∪B = S,即在樣本空間內兩個事件A和B被認為是窮舉性的。

例如,假設A是從包裝中抽出的紙牌是紅色的事件,B是抽出的紙牌是黑的事件。這裡,A和B是窮舉性的,因為樣本空間S = {red,black}。很簡單的東西,對不對?

6.獨立事件

如果一個事件的發生對另一事件的發生沒有任何影響,則可以說這兩個事件是獨立的。從數學上講,如果滿足以下條件,則兩個事件A和B被認為是獨立的:

例如,如果A在擲骰子時獲得5,而B從一副洗的特別好的一堆紙牌中抽出了紅桃K,那麼A和B就其定義而言來說就是獨立的。識別獨立事件通常不那麼容易,因此我們使用上面提到的公式。

7.條件概率

假設我們從給定的牌堆中抽出一張牌。是黑牌的概率是多少?很簡單- 1/2,對吧?然而,如果我們知道它是一張黑牌,那麼它是一張國王牌的概率是多少?

解決這個問題的方法並不那麼簡單。

這就是條件概率概念起作用的地方。條件概率被定義為一個事件A發生的概率,前提是另一個事件B已經發生(即A條件B)。這由P(A | B)表示,我們可以將其定義為:

P(A | B)= P(A∩B)/ P(B)

讓事件A代表選擇國王,事件B代表黑牌。然後,使用上述公式找到P(A | B):

P(A∩B)= P(獲得一張國王黑卡)= 2/52 P(B)= P(撿黑卡)= 1/2

因此,P(A | B)= 4/52。根據您選擇的示例進行嘗試。這將幫助您很好地掌握整個概念。

8.邊際概率

它是一個事件A發生的概率,獨立於任何其他事件B,即邊緣化事件B。

邊際概率P(A)= P(A | B)* P(B)+ P(A |B)* P(B)

這只是一種奇特的說法:

P(A)= P(A∩B)+ P(A∩B)#根據我們對條件概率的了解

其中B表示未發生B的事件。

讓我們來驗證一下邊際概率的概念是否成立。這裡,我們需要計算抽到的隨機紙牌是紅色(事件a)的概率,答案顯然是1/2。 。讓我們通過事件B的邊際概率計算得出國王的概率。

P(A∩B)= 2/52(因為有兩個是紅色的國王,一個是紅心,另一個是方塊)

並且P(A∩B)= 24/52(紅色的剩餘的牌)因此,P(A)= 2/52 + 24/52 = 26/52 = 1/2

完美!因此,這足以涵蓋我們貝葉斯定理的基礎知識。現在讓我們花一些時間來了解貝葉斯定理的確切含義以及其工作原理。

貝葉斯定理是什麼?

你看過熱門電視劇《神探夏洛克》(或任何犯罪驚悚劇)嗎?想想看,我們對罪魁禍首的看法在整集裡都在改變。我們處理新的證據,並在每一步完善我們的假設。這就是現實生活中的貝葉斯定理!

現在,讓我們從數學上理解它。這將是相當簡單的,因為我們的基礎是清楚的。

假設A和B是樣本空間S中P(B)≠0的任意兩個事件。利用我們對條件概率的理解,我們有:

P(A|B) = P(A∩B) / P(B)類似地,P(B|A) = P(A∩B) / P(A)由此可見,P (A∩) = P (A | B) * P (B) = P (B |) * P (A)因此,P(A|B) = P(B|A)*P(A) / P(B)

這就是貝葉斯定理。

這裡,P(A)和P(B)是獨立觀察A和B的概率。這就是為什麼我們說它們是邊際概率。P(B|A)和P(A|B)是條件概率。

P(A)稱為先驗概率,P(B)稱為證據。

P(B)= P(B | A)* P(A)+ P(B |A)* P(A)

P(B | A)稱為可能性,P(A | B)稱為後驗概率。

等價地,貝葉斯定理可以寫成:

後驗=可能性*先驗/證據

這些詞聽起來可能很花哨,但它們背後的基本思想其實很簡單。當你有任何疑問的時候,你可以回到這個部分進行查看。

貝葉斯定理的一個例證

我們用貝葉斯定理來解決一個問題。這將幫助你理解和想像你可以在哪裡應用它。我們舉一個例子,我相信幾乎所有人都在學校裡見過。

有3個分別標記為A,B和C的盒子:

盒子A包含2個紅色和3個黑色的球盒子B包含3個紅色和1個黑色的球盒子C包含1個紅球和4個黑球這三個盒子是一樣的,被選中的概率是一樣的。假設選擇了一個紅色的球。那麼這個紅球從框A中取出的概率是多少?

設E表示一個紅色球被選中的事件,A、B、C表示各自的盒子被選中。我們需要計算條件概率P(A|E)。

我們有先驗概率P(A)= P(B)= P(C)= 1/3,因為所有盒子都有相同的被選取的概率。P(E|A) =盒子A中紅色球的數量/盒子A中紅色球的總數= 2 / 5同理,P(E|B) = 3 / 4, P(E|C) = 1 / 5然後證據P (E) = P (E |) * P (A) + P (E | B) * P (B) + P (E | C) * P (C)= (2/5)* (1/3)+ (3/4)* (1/3)+ (1/5)* (1/3)= 0.45因此,P (A | E) = P (E |) * P (A) / P (E) = (2/5) * (1/3) / 0.45 = 0.296

貝葉斯定理的應用

貝葉斯定理在現實世界中有很多應用。如果你不能馬上理解所有涉及的數學,也不要擔心。只要了解它是如何工作的就足夠了。

貝葉斯決策理論是解決模式分類問題的一種統計方法。根據這一理論,假定類別的潛在概率分布是已知的。因此,我們得到了一個理想的貝葉斯分類器,所有其他分類器都根據它來判斷性能。

我們將討論貝葉斯定理的三個主要應用:

樸素貝葉斯分類器判別函數和決策面貝葉斯參數估計讓我們詳細查看每個應用。

樸素貝葉斯分類器

這可能是貝葉斯定理最著名的應用,甚至可能是最強大的。在機器學習中你會經常遇到樸素貝葉斯算法。

樸素貝葉斯分類器是基於貝葉斯定理的一組概率分類器。這些分類器的基本假設是,用於分類的所有功能都彼此獨立。那就是「樸素」這個名字的來歷,因為很少有我們獲得一套完全獨立的功能。

這些分類器的工作方式與我們在插圖中解決的方法完全相同,只是假設了更多相互獨立的特性。

這裡,我們需要找到概率P(Y|X)其中X是一個n維隨機變量,其組成隨機變量X1, X2,…, X_n相互獨立:

類似的,因為條件獨立

代入(1),得到

最後,P(Y | X)最大的Y是我們的預測類。

判別函數和曲面

這個名字很不言自明。判別函數用於將其參數「區分」到其相關類中。想要一個例子嗎?那就來一個!

如果你研究過機器學習中的分類問題,你可能會遇到支持向量機(SVM)。支持向量機算法通過尋找最佳分離訓練樣本的微分超平面來對向量進行分類。這個超平面可以是線性的,也可以是非線性的:

這些超平面是我們的決策平面,這個超平面的方程是我們的判別函數。

好了-現在讓我們正式討論這個話題。

w1,w2,…..,w_c表示我們的數據向量X可以分類的c個類。然後,決策規則變為:

對於所有j≠i,如果g_i(X)> g_j(X),則確定w_i

這些函數gi(X) i = 1,2,…,稱為判別函數。這些函數將向量空間分割成c決策區域——R1, R2,…, Rc對應於每個c類。這些區域的邊界稱為決策面或邊界。

如果gi(X) = gj(X)是c判別函數中最大的值,那麼將向量X劃分為wi類和wj類是不明確的。因此,X位於一個判定邊界或曲面上。

查看下圖:

這是個很酷的概念,對吧?將二維向量空間分成R1和R2兩個決策區域,用兩個雙曲線將兩個決策區域分隔開。

注意,如果f(.)是一個單調遞增的函數,那麼任何函數f(g_i(X))也可以用作判別函數。對數函數是f(.)的常用選擇。

現在,考慮兩個類別的情況下使用類w ^ _1和W_2。「 最小錯誤率分類」決策規則變為:

如果P(w_1|X) > P(w_2|X),則判定w_1,否則判定w_2P(error|X) = min{P(w_1|X),P(w_2|X)}

P(w_i|X)是一個條件概率,可以用貝葉斯定理來計算。因此,我們可以根據可能性和先驗來重申決策規則:

如果P(X|w_1)*P(w_1) > P(X|w_2)*P(w_2),則判定w_1,否則判定w_2

請注意,分母上的「證據」只是用於縮放,因此我們可以從決策規則中消除它。

因此,判別函數的一個明顯選擇是:

g_i(X) = P(X|w_i)*P(w_i) 或g_i(X) = ln(P(X|w_i)) + ln(P(w_i))

兩類情況一般可用一個判別函數進行分類。

g(X) = g_1(X) - g_2(X)= ln(P(X|w_1) / P(X|w_2)) + ln(P(w_1) / P(w_2))判斷w_1,如果g(X) >為0判斷w_2,如果g(X) < 0如果g(X) = 0,則X位於決策面。

在上圖中,g(X)是二維向量X中的一個線性函數。然而,更複雜的決策邊界也是有可能的:

貝葉斯參數估計

這是貝葉斯定理的第三個應用。我們將使用單變量高斯分布和一些數學知識來理解它。不要擔心它看起來很複雜——我已經把它分解成容易理解的術語。

你一定聽說過超級流行的IMDb Top 250。這是250部有史以來最受歡迎的電影。《肖申克的救贖》在榜單上排名第一,評分9.2/10。

你認為這些評級是如何計算的?IMDb使用的原始公式聲稱使用「真正的貝葉斯估計」。此後,這個公式發生了變化,沒有公開披露。下面是之前的公式:

W=加權評級

R=從1到10的電影平均(平均值)=(評級)

v=電影的投票數=(投票)

m=進入前250名所需的最低票數(目前為25,000)

C= 整個報告的平均投票數(目前為7.0)

最終評級W是R和C的加權平均值,分別用權重v和m表示。m是先驗估計。

當票數v增加並超過m時,所需的最小票數W接近電影的平均票數R當v接近於0(投給電影的投票數更少),W接近所有電影的平均評級,C我們通常沒有關於分類問題的概率性質的完整信息。相反,我們對情況有一個模糊的概念,以及一些訓練的例子。然後我們使用這些信息來設計一個分類器。

基本思想是潛在的概率分布具有一個已知形式。因此,我們可以使用參數向量Θ對其進行描述。例如,可以用Θ= [μ,σ]描述高斯分布。

然後,我們需要估計這個向量。這通常通過兩種方式實現:

最大似然估計(MLE): 假設是底層的概率分布p(Θ)未知但固定參數向量。最佳估計最大化似然函數:p (D |θ)= p (x1 |θ)* p (x2 |θ)* ....* p (xn |θ)=相對於樣本D集合的θ似然

貝葉斯參數估計 –在貝葉斯學習中,Θ是一個隨機變量,而不是MLE中的「未知但固定」值。我們使用訓練的例子將此變量的分布轉換為後驗概率密度。我們可以將其非正式地寫為:

P(Θ|數據)= P(數據|Θ)* P(Θ)/ P(數據),其中數據表示訓練示例集

你需要知道的關鍵點:

我們假設概率密度p(X)是未知的,但具有已知的參數形式。因此,可以說,p (X |Θ)完全是已知的我們可能擁有的關於Θ的任何先驗信息都包含在已知的先驗概率密度p(Θ)中我們使用訓練樣本來找到後驗密度p(Θ| data)。這應該在Θ的真實值處急劇達到峰值貝葉斯參數估計的證明–單變量高斯案例

讓我來演示一下貝葉斯參數估計是如何工作的。這將進一步明確我們剛才提到的理論。

首先,讓p (X)是正態分布的均值μ和方差σ,μ是唯一我們希望估計未知參數。然後:

p(X|Θ) = p(X|μ) ~ N(μ, σ)

我們將在這裡簡化數學。因此, 讓先驗概率密度p(μ)也是正態分布與平均和方差σ(這都是已知的)。

在此,將p(Θ| data)= p(μ| data)稱為繁殖密度,將p(Θ)= p(μ)稱為共軛先驗。

a是歸一化常數

由於樣本是相互獨立的,

帶入(2)

現在,我們把概率密度替換成我們一開始描述的那樣

由於exp()中的此參數是μ的二次方,因此它表示一個正常的密度。因此,如果我們有n個訓練示例,我們可以說p(μ| data)正態分布為均值μn和方差σn,其中

以下是我的觀察:

隨著n的增加,σ_n減小。因此,我們估計中的不確定性降低由於不確定性降低,因此密度曲線在其平均值μ_n處急劇上升:

尾注

貝葉斯定理的美麗和力量永不止息。由250多年前去世的僧侶給出的一個簡單概念已在當今在一些最著名的機器學習技術中使用。

更多乾貨持續分享給大家,請一直關注我們吧!

相關焦點

  • 基於貝葉斯定理的算法——樸素貝葉斯分類
    不過今天我們介紹的樸素貝葉斯分類器通過獨立假設簡化了概率的計算,節省了內存,可以很好地用於數據量大的情況。下面我們首先來了解這一算法的數理背景——貝葉斯定理。這一算法是由我們在概率論中學到的貝葉斯定理延伸出來的。我們知道貝葉斯公式為:其中,
  • 形象理解貝葉斯定理
    以圖形方式理解定理和證明是一種可視化信息和數據的有效方式,而且不僅以可視方式呈現數據已被證明長期有效。因此,本文以可視方式透徹展示、講解概率概念。本文安排如下:1. 什麼是條件概率?2. 總概率定律3. 貝葉斯定理4. 貝葉斯定理的應用什麼是條件概率?
  • 貝葉斯定理
    此前有業內人士將期貨交易比喻為「賭博」,而貝葉斯定理或許是個提高獲勝率的好辦法。【貝葉斯定理】貝葉斯定理也稱貝葉斯公式,是關於隨機事件A和B的條件概率或邊緣概率的一則定理,指當分析樣本大到接近總體數時,樣本中事件發生的概率將接近於總體中事件發生的概率。
  • 貝葉斯定理的通俗理解
    樸素貝葉斯是一種基於貝葉斯定理的簡單概率分類器(分類又被稱為監督式學習,所謂監督式學習即從已知樣本數據中的特徵信息去推測可能出現的輸出以完成分類
  • 貝葉斯定理為何能名滿天下?AI從此不再只是個理科生
    物理學家提出量子機器的貝葉斯解釋,捍衛弦和多重宇宙理論。 哲學家主張作為一個整體的科學可以被視為一個貝葉斯過程。 而在IT界,AI大腦的思考和決策樹,更是被工程師設計成了一個貝葉斯程序。
  • 懂貝葉斯定理,學會理解生活
    此時,你一定在想有沒有什麼方法,能讓我們更好地「摸著石頭過河」?沒錯,答案就是題目中的貝葉斯定理。高中的讀者在概率的部分應該會學習到它。當然,沒有聽說過也不要緊,在下面的文章中,會有關於它的解釋。就是這樣的一個數學定理,能讓我們更好地做出決定,更好地理解事物。接下來,就讓我們一起來了解一下這個定理,以及它如何能讓我們的生活變得更好吧!
  • 貝葉斯定理:AI不只是個理科生
    可在貝葉斯的眼中,這種可信度也不過2%。原因無它,5%的誤報率在醫學界可謂非常高了。別看表面的數據,我們要相信貝葉斯的數學結論。看似冷酷的貝葉斯定理會溫柔的安慰你:別怕,不到2%的概率。物理學家提出量子機器的貝葉斯解釋,捍衛弦和多重宇宙理論。哲學家主張作為一個整體的科學可以被視為一個貝葉斯過程。而在IT界,AI大腦的思考和決策樹,更是被工程師設計成了一個貝葉斯程序。
  • 貝葉斯定理:AI 不只是個理科生 | 贈書
    物理學家提出量子機器的貝葉斯解釋,捍衛弦和多重宇宙理論。哲學家主張作為一個整體的科學可以被視為一個貝葉斯過程。而在IT界,AI大腦的思考和決策樹,更是被工程師設計成了一個貝葉斯程序。在日常生活中,我們也常使用貝葉斯公式進行決策,只是自己沒有注意到這就是「貝葉斯定理」。
  • 貝葉斯定理幫你消化新聞
    也許你知道貝葉斯定理的含義,但是卻從不知道該如何使用它,在看到「紅酒可降低患痴呆症風險」這樣的標題時無法立刻想到這與貝葉斯定理有關。那麼,本文將幫你熟練掌握它。首先,筆者將回顧貝葉斯定理,探討為什麼筆者認為它很難記住,並用敏感性和特異性來表述。接下來,筆者將探討幾種運用貝葉斯公式對新聞中經常出現的挑釁性言論做出適當反應的方法。
  • 這個例子讓你精通貝葉斯定理
    全文共2450字,預計學習時長5分鐘貝葉斯定理可能是數理統計與概率論領域最重要的定理。因此,該定理經常應用於數據科學領域。本文將通過實際問題對貝葉斯定理進行直觀推導。簡介以18世紀英國數學家託馬斯貝葉斯命名的貝葉斯定理是確定條件概率的數學公式,其在數據科學領域具有重要意義。
  • 為什麼樸素貝葉斯定理會被叫做樸素的?
    樸素貝葉斯算法是一種基於著名貝葉斯定理的分類算法。那麼讓我們先了解一下Bayes定理是怎麼說的,並為樸素貝葉斯算法定理建立自己的理解,它是如何工作的,它為什麼被稱作樸素的?貝葉斯定理在深入研究貝葉斯定理之前,我們需要了解一些術語-獨立事件和從屬事件邊際概率聯合概率條件概率獨立事件和從屬事件考慮兩個事件A和B。
  • 透徹理解貝葉斯推理
    例如,我可以查看一些數據,該數據顯示,在某個商店的某個商店裡,有30個人實際購買了冰淇淋。所以我的P(A =冰淇淋銷售)= 30/100 = 0.3,在我了解天氣之前。這就是貝葉斯定理允許我們合併先驗信息的方法。貝葉斯推理定義現在我們知道貝葉斯定理是什麼以及如何使用它,我們可以開始回答什麼是貝葉斯推理的問題?
  • 科普丨樸素貝葉斯了解一下
    要理解樸素貝葉斯,我們首先需要了解貝葉斯推斷。貝葉斯推斷是一種用貝葉斯定理來迭代假設概率的方法。貝葉斯定理是在掌握與相關事件的先決信息下,計算該事件的概率。假設你想計算星期天下午5點得到一個停車位的概率。那麼你如何計算這一事件的概率呢?是的,貝葉斯定理!數學上貝葉斯定理寫為:這裡"B"是一個條件,"A"是一個事件。
  • 可怕的貝葉斯定理,看完後忍不住感慨數學太重要了
    眾所周知,貝葉斯定理是一種在已知其他概率的情況下求概率的方法:圖片來源:HackYourself既然開講了,那就不要停下來了。那我們怎麼去理解這個傳說中不黃但很暴力的貝葉斯定理呢,貝葉斯定理是如何暴力狂虐數學界的?
  • 貝葉斯定理還能用來把妹......
    而貝葉斯的概率理論則給了我們一個不同的思路,對於頻率派來說,一個模型中的參數是「固定」的,而數據是在分布中隨機採樣的。而對於貝葉斯派學者來說,我們觀察到的數據才是「固定」的,而我們的模型的參數才是在一直變化的。我們不停地觀察數據,估計出來的模型參數就可能一直的變化。
  • python實現高斯樸素貝葉斯分類器
    在樸素貝葉斯分類器的文章中我們討論了貝葉斯定理,我們希望你對貝葉斯定理的基礎知識有一定的了解,如果沒有讓我們快速地看看貝葉斯定理的基本知識。    貝葉斯定理是基於條件概率。條件概率可以幫助我們通過已經發生的事情來計算將要發生的事情。如果你不明白,讓我們通過以下例子幫助你理解。
  • 貝葉斯定理是怎麼幫助我們計算出檢驗系統的可靠性和客戶PPM的?
    貝葉斯定理也稱貝葉斯推理,早在18世紀,英國學者貝葉斯(1702~1763)本職是一個牧師,業務愛好數學,他想通過數學概率統計的方式來證明上帝是存在的。在這個過程中,他發明了貝葉斯定理。貝葉斯定理是用來計算,在已知(或已有初步經驗)某件事A發生的概率的情況,當事件B發生時,A實際發生的條件概率。
  • 30分鐘了解貝葉斯定理――AI產品經理了解的數學知識系列
    貝葉斯定理提供的是一種逆條件概率的方法,本文簡單總結了貝葉斯定理是什麼,貝葉斯定理應用的理解,以及貝葉斯定理在AI場景下的應用,目的是希望產品經理了解到這個定理的能力後,在設計相關推薦或是具有推理功能的應用場景,能通過貝葉斯定理來解決。
  • 專欄| 貝葉斯學習與未來人工智慧
    果然,在第四季第 2 集中我們看到了下圖中的公式(用紅框標出)——貝葉斯定理!該定理素以其簡單而優雅的形式、深刻而雋永的意義而聞名,在今天的機器學習大潮中,貝葉斯定理仍會扮演重要的角色,而且其作用將日益凸顯。1. 貝葉斯定理貝葉斯定理是英國數學家貝葉斯提出的,當時的目標是要解決所謂「逆概率」問題。
  • 「貝葉斯定理」在生活中很有用,它到底是如何算出來的?
    學生即使學了貝葉斯定理,也只把它當作一個數學公式,不知道它對學習統計學有什麼幫助,更不知道它具備生活實用性。其次,貝式定理的數學表示式難以背誦;即使一時背了,也容易忘記。許多學生因此強記上述公式以準備考試,只求能解題而不求理解;公式反而成為學習貝葉斯定理的主要障礙。本文的主要目的是要破除許多學生對於貝式定理「困難又不實用」的刻板印象。事實上,我們生活之中有許多情況必須要運用貝式定理的邏輯思考,否則便容易產生偏差甚至陷於謬誤。被撞到的都是好人?讓貝葉斯定理算給你看看