T檢驗還是Z檢驗?(原作者Lynn)
很多書上都這樣講:T和Z檢驗公式適合不同類型的試題,可是在講SPSS操作部分時,所有類型的題目用SPSS裡的t檢驗計算了。
比如,按照書上手算部分的講解,只適合Z 檢驗的例題,可SPSS操作部分卻用的是T檢驗,前面和費勁地講解兩個公式的區別,後面卻又一樣了,如何解釋?
在兩個樣本平均數的差異性檢驗中,什麼時候用t檢驗,什麼時候用z檢驗?不少人存在困惑。
大家根深蒂固的認識:樣本容量大於30時,用z檢驗;樣本容量小於30時,用t檢驗。這裡,其實存在誤解。
我的意見很簡單:
只要是兩個樣本平均數的差異性檢驗,假定總體正態,不管樣本容量是否大於30,就直接使用t檢驗,而不用費心地想是採用t檢驗還是採用z檢驗。這大概也叫做「認知經濟論」吧!
兩個樣本平均數的差異性檢驗,實際上是針對樣本平均數差異量的分布來展開的。實際抽樣中,樣本容量都是有限的,所以一般很難保證樣本平均數差異量的分布為正態,因此嚴格地說都不能使用Z分布檢驗,本來就該採用t檢驗。
過去,因為計算機使用不是很普遍,更多時候藉助於計算器,甚 至有的人連計算器都沒有,簡化算法就很必要了。也就是說,採用Z檢驗,是權宜之計,是當樣本容量較大時,分布雖不正態但接近正態分布,所以近似採用Z檢 驗,可以省事!現在,不需要簡化算法了,因為這點計算對裝有SPSS的計算機來說,簡直是「小小菜」!
簡單說,本來就該t檢驗,而不是z檢驗。
原文出處:
http://blog.sina.com.cn/s/blog_4a5c956b0100rj7g.html
1. T 檢驗和 F 檢驗的由來
一般而言,為了確定從樣本 (sample) 統計結果推論至總體時所犯錯的概率,我們會利用統計學家所開發的一些統計方法,進行統計檢定。
通過把所得到的統計檢定值,與統計學家建立了一些隨機變量的概率分布 (probability distribution) 進行比較,我們可以知道在多少% 的機會下會得到目前的結果。倘若經比較後發現,出現這結果的機率很少,亦即是說,是在機會很少、很罕有的情況下才出現;那我們便可以有信心的說,這不是巧合,是具有統計學上的意義的 (用統計學的話講,就是能夠拒絕虛無假設 null hypothesis,Ho)。相反,若比較後發現,出現的機率很高,並不罕見;那我們便不能很有信心的直指這不是巧合,也許是巧合,也許不是,但我們沒能確定。
F 值和 t 值就是這些統計檢定值,與它們相對應的概率分布,就是 F 分布和 t 分布。統計顯著性(sig)就是出現目前樣本這結果的機率。
2. 統計學意義(P 值或 sig 值)
結果的統計學意義,是結果真實程度(能夠代表總體)的一種估計方法。專業上,p 值為結果可信程度的一個遞減指標,p 值越大,我們越不能認為樣本中變量的關聯是 總體中各變量關聯的可靠指標。p 值是將觀察結果認為有效即具有總體代表性的犯錯概率。如 p=0.05 提示樣本中變量關聯有 5% 的可能是由於偶然性造成的。
即假設總體中任意變量間均無關聯,我們重複類似實驗,會發現約 20 個實驗中有一個實驗,我們所研究的變量關聯將等於或強於我們的實驗結果。(這並不是說如果變量間存在關聯,我們可得到 5% 或 95% 次數的相同結果,當總體中的變量存在關聯,重複研究和發現關聯的可能性與設計的統計學效力有關。)在許多研究領域,0.05 的 p 值通常被認為是可接受錯誤的邊界水平。
3. T 檢驗和 F 檢驗
至於具體要檢定的內容,須看你是在做哪一個統計程序。
舉一個例子,比如,你要檢驗兩獨立樣本均數差異是否能推論至總體,而行的 t 檢驗。
兩樣本 (如某班男生和女生) 某變量 (如身高) 的均數並不相同,但這差別是否能推論至總體,代表總體的情況也是存在著差異呢?
會不會總體中男女生根本沒有差別,只不過是你那麼巧抽到這 2 樣本的數值不同?
為此,我們進行 t 檢定,算出一個 t 檢定值。
與統計學家建立的以「總體中沒差別」作基礎的隨機變量 t 分布進行比較,看看在多少 % 的機會 (亦即顯著性 sig 值) 下會得到目前的結果。
若顯著性 sig 值很少,比如 <0.05 (少於5% 機率),亦即是說,「如果」總體「真的」沒有差別,那麼就只有在機會很少(5%)、很罕有的情況下, 才會出現目前這樣本的情況。雖然還是有5% 機會出錯(1-0.05=5%),但我們還是可以「比較有信心」的說:目前樣本中這情況(男女生出現差異的情 況)不是巧合,是具統計學意義的,「總體中男女生不存差異」的虛無假設應予拒絕,簡言之,總體應該存在著差異。
每一種統計方法的檢定的內容都不相同,同樣是t-檢定,可能是上述的檢定總體中是否存在差異,也同能是檢定總體中的單一值是否等於0或者等於某一個數值。
至於F-檢定,方差分析(或譯變異數分析,Analysis of Variance),它的原理大致也是上面說的,但它是透過檢視變量的方差而進行的。它主要用於:均數差別的顯著性檢驗、分離各有關因素並估計其對總變異的作用、分析因素間的交互作用、方差齊性(Equality of Variances)檢驗等情況。
4. T 檢驗和 F 檢驗的關係
t 檢驗過程,是對兩樣本均數(mean)差別的顯著性進行檢驗。惟 t 檢驗須知道兩個總體的方差(Variances)是否相等;t 檢驗值的計算會因方差是否相等而有所不同。也就是說,t 檢驗須視乎方差齊性(Equality of Variances)結果。所以,SPSS在進行t-test for Equality of Means的同時,也要做Levene"s Test for Equality of Variances 。
1. 在Levene"s Test for Equality of Variances一欄中 F值為2.36, Sig. 為.128,表示方差齊性檢驗「沒有顯著差異」,即兩方差齊(Equal Variances),故下面 t 檢驗的結果表中要看第一排的數據,亦即方差齊的情況下的t檢驗的結果。
2. 在t-test for Equality of Means中,第一排(Variances=Equal)的情況:t=8.892, df=84, 2-Tail Sig=.000, Mean Difference=22.99
既然Sig=.000,亦即,兩樣本均數差別有顯著性意義!
3. 到底看哪個Levene"s Test for Equality of Variances一欄中sig, 還是看t-test for Equality of Means中那個Sig. (2-tailed)啊?
答案是:兩個都要看。
先看Levene"s Test for Equality of Variances,如果方差齊性檢驗「沒有顯著差異」,即兩方差齊(Equal Variances),故接著的t檢驗的結果表中要看第一排的數據,亦即方差齊的情況下的t檢驗的結果。
反之,如果方差齊性檢驗「有顯著差異」,即兩方差不齊(Unequal Variances),故接著的t檢驗的結果表中要看第二排的數據,亦即方差不齊的情況下的t檢驗的結果。
4. 你做的是T檢驗,為什麼會有F值呢?
就是因為要評估兩個總體的方差(Variances)是否相等,要做Levene"s Test for Equality of Variances,要檢驗方差,故所以就有F值。
5. 另一種解釋:
t檢驗有單樣本t檢驗,配對t檢驗和兩樣本t檢驗。
單樣本t檢驗:是用樣本均數代表的未知總體均數和已知總體均數進行比較,來觀察此組樣本與總體的差異性。
配對t檢驗:是採用配對設計方法觀察以下幾種情形,1,兩個同質受試對象分別接受兩種不同的處理;2, 同一受試對象接受兩種不同的處理;3,同一受試對象處理前後。
F檢驗又叫方差齊性檢驗。在兩樣本t檢驗中要用到F檢驗。
從兩研究總體中隨機抽取樣本,要對這兩個樣本進行比較的時候,首先要判斷兩總體方差是否相同,即方差齊性。若兩總體方差相等,則直接用t檢驗,若不等,可採用t"檢驗或變量變換或秩和檢驗等方法。
其中要判斷兩總體方差是否相等,就可以用F檢驗。
若是單組設計,必須給出一個標準值或總體均值,同時,提供一組定量的觀測結果,應用t檢驗的前提條件就是該組資料必須服從正態分布;若是配對設計,每對數的差值必須服從正態分布;若是成組設計,個體之間相互獨立,兩組資料均取自正態分布的總體,並滿足方差齊性。之所以需要這些前提條件,是因為必須在這樣的 前提下所計算出的t統計量才服從t分布,而t檢驗正是以t分布作為其理論依據的檢驗方法。
簡單來說就是實用T檢驗是有條件的,其中之一就是要符合方差齊次性,這點需要F檢驗來驗證。
6. 統計學意義(p值)
結果的統計學意義是結果真實程度(能夠代表總體)的一種估計方法。專業上,p值為結果可信程度的一個遞減指標,p值越大,我們越不能認為樣本中變量的關聯是 總體中各變量關聯的可靠指標。p值是將觀察結果認為有效即具有總體代表性的犯錯概率。如p=0.05提示樣本中變量關聯有5% 的可能是由於偶然性造成的。即假設總體中任意變量間均無關聯,我們重複類似實驗,會發現約20個實驗中有一個實驗,我們所研究的變量關聯將等於或強於我們的實驗結果。(這並不是說如果變量間存在關聯,我們可得到5% 或95% 次數的相同結果,當總體中的變量存在關聯,重複研究和發現關聯的可能性與設計的統計學效力有關。)在許多研究領 域,0.05的p值通常被認為是可接受錯誤的邊界水平。
7. 如何判定結果具有真實的顯著性
在最後結論中判斷什麼樣的顯著性水平具有統計學意義,不可避免地帶有武斷性。換句話說,認為結果無效而被拒絕接受的水平的選擇具有武斷性。實踐中,最後的決定通常依賴於數據集比較和分析過程中結果是先驗性還是僅僅為均數之間的兩兩>比較,依賴於總體數據集裡結論一致的支持性證據的數量,依賴於以往該研究領域的慣例。通常,許多的科學領域中產生p值的結果≤0.05被認為是統計學意義的邊界線,但是這顯著性水平還包含了相當高的犯錯可能性。結果 0.05≥p>0.01 被認為是具有統計學意義,而 0.01≥p≥0.001 被認為具有高度統計學意義。但要注意這種分類僅僅是研究基礎上非正規的判斷常規。
8. 所有的檢驗統計都是正態分布的嗎?
並不完全如此,但大多數檢驗都直接或間接與之有關,可 以從正態分布中推導出來,如 t檢驗、f 檢驗或卡方檢驗。這些檢驗一般都要求:所分析變量在總體中呈正態分布,即滿足所謂的正態假設。許多觀察變量的確是呈 正態分布的,這也是正態分布是現實世界的基本特徵的原因。當人們用在正態分布基礎上建立的檢驗分析非正態分布變量的數據時問題就產生了,(參閱非參數和方差分析的正態性檢驗)。
這種條件下有兩種方法:一是用替代的非參數檢驗(即無分布性檢驗),但這種方法不方便,因為從它所提供的結論形式看,這種方法統計效率低下、不靈活。另一種方法是:當確定樣本量足夠大的情況下,通常還是可以使用基於正態分布前提下的檢驗。後一種方法是基於一個相當重要的原則產生的, 該原則對正態方程基礎上的總體檢驗有極其重要的作用。即,隨著樣本量的增加,樣本分布形狀趨於正態,即使所研究的變量分布並不呈正態。
原文出處 | 丁香園網站
原文作者 | 統計界知名自媒體【和師兄學統計】的大師兄