統計中重要的檢驗:T檢驗、F檢驗及其統計學意義

2021-02-08 計量經濟學

本文從T檢驗、F檢驗及其統計學意義來講,主要內容涉及T檢驗和F檢驗的由來,T檢驗和F檢驗的關係等內容。





一般而言,為了確定從樣本(sample)統計結果推論至總體時所犯錯的概率,我們會利用統計學家所開發的一些統計方法,進行統計檢定。


通過把所得到的統計檢定值,與統計學家建立了一些隨機變量的概率分布(probability distribution)進行比較,我們可以知道在多少%的機會下會得到目前的結果。倘若經比較後發現,出現這結果的機率很少,亦即是說,是在機會很少、很罕有的情況下才出現;那我們便可以有信心的說,這不是巧合,是具有統計學上的意義的(用統計學的話講,就是能夠拒絕虛無假設null hypothesis,Ho)。相反,若比較後發現,出現的機率很高,並不罕見;那我們便不能很有信心的直指這不是巧合,也許是巧合,也許不是,但我們沒能確定。


F值和t值就是這些統計檢定值,與它們相對應的概率分布,就是F分布和t分布。統計顯著性(sig)就是出現目前樣本這結果的機率。






結果的統計學意義是結果真實程度(能夠代表總體)的一種估計方法。專業上,p值為結果可信程度的一個遞減指標,p值越大,我們越不能認為樣本中變量的關聯是總體中各變量關聯的可靠指標。p值是將觀察結果認為有效即具有總體代表性的犯錯概率。如p=0.05提示樣本中變量關聯有5%的可能是由於偶然性造成的。即假設總體中任意變量間均無關聯,我們重複類似實驗,會發現約20個實驗中有一個實驗,我們所研究的變量關聯將等於或強於我們的實驗結果。(這並不是說如果變量間存在關聯,我們可得到5%或95%次數的相同結果,當總體中的變量存在關聯,重複研究和發現關聯的可能性與設計的統計學效力有關。)在許多研究領域,0.05的p值通常被認為是可接受錯誤的邊界水平。






至於具體要檢定的內容,須看你是在做哪一個統計程序。


舉一個例子,比如,你要檢驗兩獨立樣本均數差異是否能推論至總體,而行的t檢驗。


兩樣本(如某班男生和女生)某變量(如身高)的均數並不相同,但這差別是否能推論至總體,代表總體的情況也是存在著差異呢?


會不會總體中男女生根本沒有差別,只不過是你那麼巧抽到這2樣本的數值不同?


為此,我們進行t檢定,算出一個t檢定值。


與統計學家建立的以「總體中沒差別」作基礎的隨機變量t分布進行比較,看看在多少%的機會(亦即顯著性sig值)下會得到目前的結果。


若顯著性sig值很少,比如<0.05(少於5%機率),亦即是說,「如果」總體「真的」沒有差別,那麼就只有在機會很少(5%)、很罕有的情況下,才會出現目前這樣本的情況。雖然還是有5%機會出錯(1-0.05=5%),但我們還是可以「比較有信心」的說:目前樣本中這情況(男女生出現差異的情況)不是巧合,是具統計學意義的,「總體中男女生不存差異」的虛無假設應予拒絕,簡言之,總體應該存在著差異。


每一種統計方法的檢定的內容都不相同,同樣是t-檢定,可能是上述的檢定總體中是否存在差異,也同能是檢定總體中的單一值是否等於0或者等於某一個數值。


至於F-檢定,方差分析(或譯變異數分析,Analysis of Variance),它的原理大致也是上面說的,但它是透過檢視變量的方差而進行的。它主要用於:均數差別的顯著性檢驗、分離各有關因素並估計其對總變異的作用、分析因素間的交互作用、方差齊性(Equality of Variances)檢驗等情況。






t檢驗過程,是對兩樣本均數(mean)差別的顯著性進行檢驗。惟t檢驗須知道兩個總體的方差(Variances)是否相等;t檢驗值的計算會因方差是否相等而有所不同。也就是說,t檢驗須視乎方差齊性(Equality of Variances)結果。所以,SPSS在進行t-test for Equality of Means的同時,也要做Levene's Test for Equality of Variances 。


4.1在Levene's Test for Equality of Variances一欄中 F值為2.36, Sig.為.128,表示方差齊性檢驗「沒有顯著差異」,即兩方差齊(Equal Variances),故下面t檢驗的結果表中要看第一排的數據,亦即方差齊的情況下的t檢驗的結果。


4.2.在t-test for Equality of Means中,第一排(Variances=Equal)的情況:t=8.892, df=84, 2-Tail Sig=.000, Mean Difference=22.99

既然Sig=.000,亦即,兩樣本均數差別有顯著性意義!


4.3到底看哪個Levene's Test for Equality of Variances一欄中sig,還是看t-test for Equality of Means中那個Sig. (2-tailed)啊?


答案是:兩個都要看。先看Levene's Test for Equality of Variances,如果方差齊性檢驗「沒有顯著差異」,即兩方差齊(Equal Variances),故接著的t檢驗的結果表中要看第一排的數據,亦即方差齊的情況下的t檢驗的結果。


反之,如果方差齊性檢驗「有顯著差異」,即兩方差不齊(Unequal Variances),故接著的t檢驗的結果表中要看第二排的數據,亦即方差不齊的情況下的t檢驗的結果。


4.4你做的是T檢驗,為什麼會有F值呢?


就是因為要評估兩個總體的方差(Variances)是否相等,要做Levene's Test for Equality of Variances,要檢驗方差,故所以就有F值。


另一種解釋:


t檢驗有單樣本t檢驗,配對t檢驗和兩樣本t檢驗。


單樣本t檢驗:是用樣本均數代表的未知總體均數和已知總體均數進行比較,來觀察此組樣本與總體的差異性。


配對t檢驗:是採用配對設計方法觀察以下幾種情形,1,兩個同質受試對象分別接受兩種不同的處理;2,同一受試對象接受兩種不同的處理;3,同一受試對象處理前後。


F檢驗又叫方差齊性檢驗。在兩樣本t檢驗中要用到F檢驗。


從兩研究總體中隨機抽取樣本,要對這兩個樣本進行比較的時候,首先要判斷兩總體方差是否相同,即方差齊性。若兩總體方差相等,則直接用t檢驗,若不等,可採用t'檢驗或變量變換或秩和檢驗等方法。


其中要判斷兩總體方差是否相等,就可以用F檢驗。


若是單組設計,必須給出一個標準值或總體均值,同時,提供一組定量的觀測結果,應用t檢驗的前提條件就是該組資料必須服從正態分布;若是配對設計,每對數據的差值必須服從正態分布;若是成組設計,個體之間相互獨立,兩組資料均取自正態分布的總體,並滿足方差齊性。之所以需要這些前提條件,是因為必須在這樣的前提下所計算出的t統計量才服從t分布,而t檢驗正是以t分布作為其理論依據的檢驗方法。


簡單來說就是實用T檢驗是有條件的,其中之一就是要符合方差齊次性,這點需要F檢驗來驗證。






在最後結論中判斷什麼樣的顯著性水平具有統計學意義,不可避免地帶有武斷性。換句話說,認為結果無效而被拒絕接受的水平的選擇具有武斷性。實踐中,最後的決定通常依賴於數據集比較和分析過程中結果是先驗性還是僅僅為均數之間的兩兩比較,依賴於總體數據集裡結論一致的支持性證據的數量,依賴於以往該研究領域的慣例。通常,許多的科學領域中產生p值的結果≤0.05被認為是統計學意義的邊界線,但是這顯著性水平還包含了相當高的犯錯可能性。結果0.05≥p>0.01被認為是具有統計學意義,而0.01≥p≥0.001被認為具有高度統計學意義。但要注意這種分類僅僅是研究基礎上非正規的判斷常規。





並不完全如此,但大多數檢驗都直接或間接與之有關,可以從正態分布中推導出來,如t檢驗、f檢驗或卡方檢驗。這些檢驗一般都要求:所分析變量在總體中呈正態分布,即滿足所謂的正態假設。許多觀察變量的確是呈正態分布的,這也是正態分布是現實世界的基本特徵的原因。當人們用在正態分布基礎上建立的檢驗分析非正態分布變量的數據時問題就產生了,(參閱非參數和方差分析的正態性檢驗)。這種條件下有兩種方法:一是用替代的非參數檢驗(即無分布性檢驗),但這種方法不方便,因為從它所提供的結論形式看,這種方法統計效率低下、不靈活。另一種方法是:當確定樣本量足夠大的情況下,通常還是可以使用基於正態分布前提下的檢驗。後一種方法是基於一個相當重要的原則產生的,該原則對正態方程基礎上的總體檢驗有極其重要的作用。即,隨著樣本量的增加,樣本分布形狀趨於正態,即使所研究的變量分布並不呈正態。


本文來源於網絡


點擊「閱讀原文」報名十一「高級計量經濟學及stata培訓」


相關焦點

  • 你知道T檢驗與F檢驗嗎?
    F值和t值就是這些統計檢定值,與它們相對應的概率分布,就是 F分布和t分布。統計顯著性(sig)就是出現目前樣本這結果的機率。 2.  統計學意義(P值或sig值)結果的統計學意義,是結果真實程度(能夠代表總體)的一種估計方法。
  • 統計學常用概念|T檢驗、F檢驗、卡方檢驗、P值、自由度
    F值和t值就是這些統計檢定值,與它們相對應的概率分布,就是F分布和t分布。統計顯著性(sig)就是出現目前樣本這結果的機率。2,統計學意義(P值或sig值) 結果的統計學意義是結果真實程度(能夠代表總體)的一種估計方法。專業上,p值為結果可信程度的一個遞減指標,p值越大,我們越不能認為樣本中變量的關聯 是總體中各變量關聯的可靠指標。
  • T檢驗與F檢驗,傻傻分不清楚?
    F 值和 t 值就是這些統計檢定值,與它們相對應的概率分布,就是 F 分布和 t 分布。統計顯著性(sig)就是出現目前樣本這結果的機率。 2.  統計學意義(P 值或 sig 值)結果的統計學意義,是結果真實程度(能夠代表總體)的一種估計方法。
  • 「統計檢驗」t檢驗和F檢驗
    這裡的檢驗所應用的方法是數理統計學中的假設檢驗,它的基本任務是根據樣本所提供的信息,對未知總體分布的某些方面的假設作出合理的判斷。假設檢驗的程序是,先根據實際問題的要求提出一個論斷,稱為原假設,記為H0,然後根據樣本的有關信息,對H0的真偽進行判斷,作出拒絕H0或接受H0的決策。
  • 卡方檢驗,T檢驗和F檢驗
    它屬於非參數檢驗的範疇,主要是比較兩個及兩個以上樣本率( 構成比)以及兩個分類變量的關聯性分析。其根本思想就是在於比較理論頻數和實際頻數的吻合程度或擬合優度問題。它在分類資料統計推斷中的應用,包括:兩個率或兩個構成比比較的卡方檢驗;多個率或多個構成比比較的卡方檢驗以及分類資料的相關分析等。
  • 搞定統計學必知:P值、T檢驗、卡方檢驗、假設檢驗……
    結果的統計學意義是結果真實程度(能夠代表總體)的一種估計方法。專業上,p值為結果可信程度的一個遞減指標,p值越大,我們越不能認為樣本中變量的關聯是總體中各變量關聯的可靠指標。p值是將觀察結果認為有效即具有總體代表性的犯錯概率。
  • 理解 t 檢驗與 F 檢驗的區別
    倘若經比較後發現,拒絕出現這樣結果的機率很少,亦即是說,是在機會很少、很罕有的情況下才會拒絕;那我們便可以有信心的說,這不是巧合,是具有統計學上的意義的(用統計學的話講,就是能夠拒絕虛無假設null hypothesis, H0)。F值和t值就是這些統計檢定值,與它們相對應的概率分布,就是F分布和t分布。
  • 【寫作助手】手把手教你如何區分T檢驗與F檢驗
    F 值和 t 值就是這些統計檢定值,與它們相對應的概率分布,就是 F 分布和 t 分布。統計顯著性(sig)就是出現目前樣本這結果的機率。2.統計學意義(P 值或 sig 值)結果的統計學意義,是結果真實程度(能夠代表總體)的一種估計方法。
  • 統計學基礎-t檢驗基本原理
    單樣本t檢驗也可以理解為是一個樣本平均數與一個已知的總體平均數的差異是否顯著。      當總體分布是正態分布,如總體標準差未知且樣本容量小於30,那麼樣本平均數與總體平均數的離差統計量呈t分布。單樣本t檢驗的統計量計算公式為:其中分子表示樣本均數與總體均值的差值,分母表示樣本均數的標準誤。t統計量用標準誤來度量樣本均數與總體均值的差距,沒有量綱。
  • 第三節 u檢驗和t檢驗
    表19-3 u值、P值與統計結論 α |t|值 P值 統計結論 0.05雙側單側 <1.96<1.645 >0.05 不拒絕H0,差別無統計學意義 0.05雙側單側 ≥1.96
  • SAS、SPSS、JMP、Excel四種統計分析軟體實現t檢驗
    先填一口知識糧:什麼是t檢驗?數據統計分析的一種基本方法。 t檢驗能做什麼?常用於兩組定量資料均值比較,以推斷總體均值差異是否有統計學意義。如比較兩個班級學生的身高差異是否有統計學意義,如比較某公司兩個地區的管理成本差異是否有統計學意義等。
  • 假設檢驗、Z檢驗與T檢驗
    概述假設檢驗是統計學、分析學和數據科學中的一個關鍵概念了解假設檢驗的工作原理、Z檢驗和t檢驗之間的區別以及其他統計概念介紹冠狀病毒大流行使我們大家都成了一個統計學家。我們不斷地核對數字,對大流行將如何發展做出自己的假設,並對何時出現「高峰」提出假設。
  • 【實例】Excel數據分析之假設檢驗中的t-檢驗應用
    即根據樣本數據如何選擇統計量去推斷總體的分布或數字特徵等。統計推斷是數理統計研究的核心問題。所謂統計推斷是指根據樣本對總體分布或分布的數字特徵等作出合理的推斷。它是統計推斷的一種基本形式,是數理統計學的一個重要分支,分為點估計和區間估計兩部分。在數據分析工具中,假設檢驗也被稱為顯著性檢驗,是統計推斷中的一種重要的數據統計方法。
  • 統計學的假設檢驗
    總第159篇/張俊紅上次寫了統計學裡面的置信度與置信區間以後,文章反響還不錯,這次再來試著寫寫統計學裡面的假設檢驗。點擊查看:聊聊置信度與置信區間假設檢驗的核心其實就是反證法。step2:構造檢驗統計量,並找出在H0假設成立的前提下,該統計量所服從的分布;檢驗統計量是根據樣本觀測結果計算得到的樣本統計量,並以此對零假設和備擇假設做出決策。
  • 一文看懂spss-獨立樣本t檢驗,非參數檢驗
    首先對數據進行正態性檢驗,符合正態性的使用獨立樣本t檢驗;不符合正態性地使用非參數秩和檢驗。將數據導入spss中,首先正態性檢驗。可以看到,只有E指標被試組和健康組2組都符合正態性(2組中只有一組符合正態性也不能使用獨立樣本t檢驗)。所以,A指標,B指標,C指標,D指標使用非參數秩和檢驗,E指標使用獨立樣本t檢驗。非參數檢驗:分析--非參數檢驗--舊對話框--2個獨立樣本。
  • [理論+spss實戰]假設檢驗——單樣本t檢驗
    小概率思想是指小概率事件(P<0.01或P<0.05)在一次試驗中基本上不會發生。反證法思想是先提出假設(檢驗假設H0),再用適當的統計方法確定假設成立的可能性大小,如可能性小(即最後計算出P值小於0.05),則認為假設不成立。 假設檢驗其實就是驗證你事先提出的假設是落在了置信區間內部,還是落在了置信區間外部(稱為:拒絕域)。
  • 獨立樣本t檢驗(Independent Samples t-test)——理論介紹
    (一) 方差齊性檢驗   (二) Cochran & Cox近似t檢驗   (三) Satterthwaite近似t檢驗   (四) Welch近似t檢驗獨立樣本t檢驗又稱成組t檢驗(two-sample/group t-test)或兩獨立樣本t檢驗(two independent-sample t-test),醫學研究中常用於完全隨機設計兩樣本均數的比較
  • 一篇文章看懂t檢驗
    數據集的部分截圖如下所示:某百貨公司隨機選擇了500位持卡人,其中一半收到了最新促銷廣告,另一半收到了標準的季節性廣告,公司希望以95%的置信度判斷最新促銷廣告的效果是否優於標準的季節性廣告。數據集中包含了500位客戶的ID號、接收到的郵件類型和促銷期間的花費;其中接受到的郵件類型中,0代表標準廣告,1代表新促銷廣告。
  • 常用統計檢驗的Python實現
    和我一起,成為更好的自己前言今天給大家整理了一些使用python進行常用統計檢驗的命令與說明,請注意,本文僅介紹如何使用python進行不同的統計檢驗,對於文中涉及的假設檢驗、統計量、>p值、非參數檢驗、iid等統計學相關的專業名詞以及檢驗背後的統計學意義不做講解,因此讀者應該具有一定統計學基礎。
  • 均值T檢驗
    通常的描述性統計主要用來呈現清洗完畢後的數據的統計特徵,比如樣本量、均值、中位數、標準差、最小值和最大值。今天要講的是描述性統計中描述數據特徵的另一種方式:分組均值T檢驗。所謂均值T檢驗,直白點說就是通過t檢驗來判斷兩組樣本的均值在統計上是否有差異。比如我們在研究稅收優惠與企業稅負問題時,就可以用t檢驗來看一看稅收優惠企業與非稅收優惠企業之間的稅負是否存在顯著差異。