一元線性回歸顯著性檢驗專題及常見問題 - CSDN

2021-01-10 CSDN技術社區

目 錄

1. σ2 的估計

2. 回歸方程的顯著性檢驗

  t 檢驗(回歸係數的檢驗)

  F 檢驗(回歸方程的檢驗)

  相關係數的顯著性檢驗

  樣本決定係數

  三種檢驗的關係

一、σ2 的估計

  因為假設檢驗以及構造與回歸模型有關的區間估計都需要σ2的估計量,所以先對σ2作估計。

  通過殘差平方和(誤差平方和)

               (1)

 

(用到,其中

 

  又∵                                (2)

∴                                                        (3)

其中 為響應變量觀測值的校正平方和。殘差平方和有n-2 個自由度,因為兩個自由度與得到的估計值相關。

                                         (4)

(公式(4)在《線性回歸分析導論》附錄C.3有證明)

∴  σ2的無偏估計量:

                                         (5)

為殘差均方, 的平方根稱為回歸標準誤差,與響應變量y 具有相同的單位。

因為σ2取決於殘差平方和, 所以任何對模型誤差假設的違背或對模型形式的誤設都可能嚴重破壞σ2的估計值的實用性。因為由回歸模型殘差算得,稱σ2的估計值是模型依賴的。

 

二、回歸方程的顯著性檢驗

  目的:檢驗 是否真正描述了變量 y 與 x 之間的統計規律性

  假設:正態性假設 (方便檢驗計算)

t 檢驗

  用t 檢驗來檢驗回歸係數的顯著性。採用的假設如下:

原假設     H0 : β1 = 0   (x 與 y 不存在線性關係)

對立假設  H1 : β1 ≠ 0

  回歸係數的顯著性檢驗就是要檢驗自變量 x 對因變量 y 的影響程度是否顯著。下面我們分析接受和拒絕原假設的意義。

  (1)接受 H0 : β1 = 0  (x 與 y 不存在線性關係)

  此時有兩種情況,一種是無論 x 取值如何, y 都在一條水平線上下波動,即,如下圖1,另一種情況為, x 與 y 之間存在關係,但不是線性關係,如圖2。

 

圖  1

 

圖 2

  (2)拒絕 H0 : β1 = 0  (x 對解釋 y 的方差是有用的

  拒絕原假設也有兩種情況,一種是直線模型就是合適的,如圖 3,另一種情況為存在 x 對 y 的線性影響,也可通過 x 的高階多項式得到更好的結果,如圖 4。

 

圖 3

 

圖 4

  接下來對其檢驗。

∵                               (6)

  ∴ 當H0 : β1 = 0 成立時,有:

                         (7)

   在零附近波動,構造 t 統計量:

                                (8)

  若原假設H0 : β1 = 0 成立,則 ,計算|t|,

|t| ≥ tα/2  , 拒絕 H0

|t| < tα/2  , 接受 H0

  2.F 檢驗(方差分析)

  F檢驗用於檢驗回歸方程的顯著性。

  方差分析法檢驗回歸顯著性,方差分析以分割響應變量 y 的總變異性為基礎。

∵   

∴   

∵  , 

∴  

∴                  (9)

  其中 稱為觀測值的校正平方和或總稱為平方和(SST: sum of squares for total, , Lyy),其度量了觀測值中總的變異性。刻畫 y 的波動程度

  稱為模型平方和(或回歸平方和),記為SSR(R: regression),,。其刻畫由 x 的波動引起的 y 波動的部分

   是殘差平方和(誤差平方和),記為SSE(E: error), , 。其刻畫了未加控制的因素引起 y 波動的部分

∴                    (10)

  下來分析它們的自由度。因為 約束 使丟掉了一個自由度,所以個自由度;因為完全由一個參數確定,所以個自由度;因為估計β0與β1時對離差施加了兩個約束,所以有n-2個自由度。

∵ 自由度有可加性

∴                    (11)

  因為總平方和反映因變量 y 的波動程度或稱不確定性,在建立了 y 對 x 的線性回歸後,總平方和SST就分解成回歸平方和SSR與殘差平方和SSE這兩部分,其中SSR是由回歸方程確定的,也就是由自變量 x 的波動引起的,SSE是不能用自變量解釋的波動,是由 x 之外的未加控制的因素引起的。這樣,總平方和SST 中,能夠由自變量解釋的部分為SSR,不能由自變量解釋的部分為SSE,從而,回歸平方和SSR越大,回歸的效果就越好,可以據此構造F 檢驗統計量為

                       (12)

  在正態假設下,原假設H0 : β1 = 0 成立時,,當時,拒絕原假設。

  3.相關係數的顯著性檢驗

  因為一元線性回歸方程討論的是變量 x 與變量 y 之間的線性關係,所以變量 x 與 y 之間的相關係數來檢驗回歸方程的顯著性。用相關係數來反應 x 與 y 的線性關係的密切程度。

  x 與 y 的簡單相關係數(Pearson 相關係數):

               (13)

r的絕對值小於等於1:|r| ≤ 1

  根據相關係數的檢驗表,通常當|r| 大於表中α=0.05相應的值時,認為 x 與 y 有顯著的線性關係。

  缺點:接近於1的程度與數據組數 n 有關(n 較小時,相關係數的波動較大,|r| 接近於1,n 較大時,|r|易偏小,n 較小時,不能僅憑 r 判定 x 與 y 之間有密切的線性關係)

  另外補充一點,Pearson相關係數的適用範圍:

  ① 兩個變量之間是線性關係,都是連續數據;

  ② 兩個變量的總體是正態分布,或接近正態分布;

  ③ 兩個變量的觀測值是成對的,每對觀測值之間相互獨立。

  4.樣本決定係數

  由公式(10)可知,越大,線性回歸越好,所以定義樣本決定係數r2: 回歸平方和與總離差平方和之比。

                        (14)

∵   

(用到

∴                    (15)

  其中最右邊的 r2 表示相關係數的平方。

  決定係數 r2 是一個回歸直線與樣本觀測值擬合優度(Goodness of Fit, 指回歸直線對觀測值的擬合程度)的相對指標,反映了因變量的波動中能用自變量解釋的比例。

  0 ≤  r2  ≤ 1,r2  越接近於 1 ,擬合優度越好。

  那麼r2 的值比較小的時候反應了什麼情況呢?

  r2 小的可能原因:

  ① 線性回歸不成立,y 與 x 是曲線關係,應用曲線回歸;

  ② y 與 x 之間符合線性模型,誤差項方差σ2大,導致r2 小(n 很大時,線性回歸顯著)

  在對自變量有重複觀測時可以通過檢驗正確區分以上兩種不同情況,或者用殘差分析的方法。

相關係數和樣本決定係數:

相關係數是建立在相關分析的理論基礎上,研究兩個變量 x 與 y 之間的線性相關關係;樣本決定係數是建立在回歸分析的理論基礎之上,研究非隨機變量 x 對 y 的解釋程度。樣本決定係數除掉了相關係數為0或1(|r|=1 or 0)的情況.

  5.三種檢驗的關係

  對於一元線性回歸來說,回歸係數顯著性的 t 檢驗,回歸方程顯著性的 F 檢驗,相關係數顯著性的 t 檢驗,這三種檢驗是等價的。相關係數顯著性的 t 檢驗與回歸係數顯著性的 t 檢驗是完全相等的,式(12)F統計量則是這兩個 t 統計量的平方。對於一元線性回歸只需要做一種檢驗即可,而對於多元線性回歸,這三種檢驗考慮的問題不同,是三種不同的檢驗,並不等價。

相關焦點

  • 多元線性回歸t檢驗專題及常見問題 - CSDN
    多元線性回歸模型通常用來研究一個應變量依賴多個自變量的變化關係,如果二者的以來關係可以用線性形式來刻畫,則可以建立多元線性模型來進行分析。1.t檢驗t檢驗是對單個變量係數的顯著性檢驗,一般看p值; 如果p值小於0.05表示該自變量對因變量解釋性很強。
  • 的方法 線性回歸方程檢驗專題及常見問題 - CSDN
    相關係數的檢驗當已求得r值時,這個r值是真正刻畫了兩個變量之間的線性關係呢,還是僅僅由於樣本的偶然相關而引起的?僅憑相關係數的大小,不能直接說明變量之間是否存在線性相關,通過對r的檢驗,確定樣本是否抽自一個總體相關係數為0的總體,可以解答這個問題。
  • t檢驗回歸方程專題及常見問題 - CSDN
    回歸方程的顯著性檢驗  t 檢驗(回歸係數的檢驗)  F 檢驗(回歸方程的檢驗)  相關係數的顯著性檢驗  樣本決定係數  三種檢驗的關係一、σ2 的估計  因為假設檢驗以及構造與回歸模型有關的區間估計都需要σ2的估計量,所以先對σ2作估計。
  • f t 線性回歸專題及常見問題 - CSDN
    1、標準化對於多元線性回歸需要對各個自變量進行標準化,排除單位的影響。標準化方法:即將原始數據減去相應變量的均數後再除以該變量的標準差,而標準化得到的回歸方程稱為標準化回歸方程,相應得回歸係數為標準化回歸係數。
  • 回歸方程的顯著性檢驗 - CSDN
    回歸方程的顯著性檢驗  t 檢驗(回歸係數的檢驗)  F 檢驗(回歸方程的檢驗)  相關係數的顯著性檢驗  樣本決定係數  三種檢驗的關係一、σ2 的估計  因為假設檢驗以及構造與回歸模型有關的區間估計都需要σ2的估計量,所以先對σ2作估計。
  • spss 方法 線性回歸專題及常見問題 - CSDN
    得到的線性方程為:y=-4.517-0.000028X1+0.76X2+0.000074X3(記住這裡用的是直接進入法進行擬合方程的,所以即使X1和X3沒通過檢驗,也要放到方程中去)Q2:關於多元線性回歸用spss分析後結果該怎麼看多元回歸分析 你要先確定一下自變量間是否存在嚴重的共線性,如果沒有共線性,然後還要通過散點矩陣看看是否成線性關係,這些之後才可以做多元線性回歸
  • spss多元線性回歸專題及常見問題 - CSDN
    得到的線性方程為:y=-4.517-0.000028X1+0.76X2+0.000074X3(記住這裡用的是直接進入法進行擬合方程的,所以即使X1和X3沒通過檢驗,也要放到方程中去)Q2:關於多元線性回歸用spss分析後結果該怎麼看多元回歸分析 你要先確定一下自變量間是否存在嚴重的共線性,如果沒有共線性,然後還要通過散點矩陣看看是否成線性關係,這些之後才可以做多元線性回歸
  • 回歸係數顯著性t檢驗 - CSDN
    回歸方程的顯著性檢驗  t 檢驗(回歸係數的檢驗)  F 檢驗(回歸方程的檢驗)  相關係數的顯著性檢驗  樣本決定係數  三種檢驗的關係一、σ2 的估計  因為假設檢驗以及構造與回歸模型有關的區間估計都需要σ2的估計量,所以先對σ2作估計。
  • 檢驗回歸係數的顯著性excel_excel相關係數顯著性檢驗 - CSDN
    二、線性回歸1、簡單線性回歸簡單線性回歸又叫一元線性回歸,即回歸模型中只有一個自變量和一個因變量,其回歸方程可以表示為: 3、線性回歸分析的步驟: 4、多重線性回歸定義:一個因變量與多個自變量的線性回歸問題,是一元線性回歸的推廣。
  • spss線性回歸自變量因變量專題及常見問題 - CSDN
    4.結果判斷:在結果中我們關注係數表即可,當VIF值大於等於10時,我們認為變量間存在嚴重的共線性,當VIF值小於10時,我們認為數據基本符合多元線性分析的假設(4),即不存在多重共線性問題。因此,本案例數據均滿足以上4個假設,可以進行多元線性回歸的運算。
  • 值 多元線性回歸模型專題及常見問題 - CSDN
    多元線性回歸模型通常用來研究一個應變量依賴多個自變量的變化關係,如果二者的以來關係可以用線性形式來刻畫,則可以建立多元線性模型來進行分析。1.模型簡介1.1模型的結構多元線性回歸模型通常用來描述變量y和x之間的隨機線性關係,即:
  • 一元回歸t檢驗與f檢驗_多元回歸模型的r檢驗f檢驗與t檢驗 - CSDN
    >6、預測; 一元線性回歸操作和解釋摘要一元線性回歸可以說是數據分析中非常簡單的一個知識點,有一點點統計、分析、建模經驗的人都知道這個分析的含義,也會用各種工具來做這個分析什麼是一元線性回歸回歸分析(Regression Analysis)是確定兩種或兩種以上變量間相互依賴的定量關係的一種統計分析方法。在回歸分析中,只包括一個自變量和一個因變量,且二者的關係可用一條直線近似表示,這種回歸分析稱為一元線性回歸分析。
  • 線性回歸假設檢驗專題及常見問題 - CSDN
    實際上使用左面的函數定義損失函數也能得到一個線性模型,只是並不是我們常說的線性回歸模型而已。所以:損失函數是機器學習模型的核心。(即使相同的模型形式,不同的損失函數對應著不同模型的效果)。如果把模型看成是人工智慧,那麼損失函數就是它的三觀。
  • r語言一元回歸模型專題及常見問題 - CSDN
    一元線性回歸分析首先介紹回歸分析中最基礎的情況:一元線性回歸分析。它規定模型f函數只能是y=k*x+b的形式,即只使用一個變量x(故稱為一元)的線性形式來預測目標變量y。6.1.1引例利用某網站歷次促銷活動中促銷讓利費用和銷售金額的數據(單位是十萬元),將使用該數據集來說明線性回歸分析的應用。
  • python 顯著性水平專題及常見問題 - CSDN
    OLS()不會自動添加一個截距到模型中,但是可以自己添加一列屬性,使其值都是1即可產生截距。'''Define A Basic Linear Model列印summary時發現有很多關於模型的信息,為了弄清楚這些統計指標,我們需要仔細研究一下標準的線性回歸模型,下面模型中的ei是預測值和真實值的差,我們默認模型的誤差是正態分布的,均值為0.
  • 回歸係數顯著性t檢驗_多元線性回歸方程及回歸係數的顯著性檢驗...
    1/2】Ha 假設【檢驗】:硬幣是有問題整個假設檢驗過程,是在H0假設條件下,進行試驗,如果推導出自相矛盾的結論,那麼就拒絕H0假設。T檢驗的原始公式:   線性回歸T檢驗公式:t=(β1 - 0)/  SE(β1 )   其中:SE(β1 ) 指的是回歸係數的β1的標準偏差。
  • 線性回歸方程的顯著性驗證,總體驗證的F檢驗與個體驗證的t檢驗
    許栩原創專欄《從入門到高手:線性回歸分析詳解》第8章,顯著性驗證,總體驗證的F檢驗與個體驗證的t檢驗。上一章,我講述了回歸方程的精度,在回歸分析中,我們求出回歸方程後,除了確認回歸方程的精度外,我們要需要對回歸方程進行顯著性驗證,以確認回歸方程的有效性。本章,我同樣分如下三個小節對顯著性驗證進行講解,歡迎閱讀與探討。我的《線性回歸分析》專欄總目錄見下圖。1、什麼是顯著性驗證?
  • spss多元線性回歸模型專題及常見問題 - CSDN
    多元線性回歸,主要是研究一個因變量與多個自變量之間的相關關係,跟一元回歸原理差不多,區別在於影響因素(自變量)更多些而已,例如:一元線性回歸方程 為: 代表隨機誤差, 其中隨機誤差分為:可解釋的誤差 和 不可解釋的誤差,隨機誤差必須滿足以下四個條件,多元線性方程才有意義(一元線性方程也一樣)1:服成正太分布,即指:隨機誤差
  • 擬合優度專題及常見問題 - CSDN
    那麼,我們可以這麼理解,即「回歸方程」中的被解釋變量y的各觀測值之間的差異,也是由兩個方面原因造成的:一是由解釋變量x的不同取值造成的;二是由其他隨機因素所造成的。實際上,回歸方程所反映的是:解釋變量x的不同取值變化對被解釋變量y的影響規律,因此其本質上揭示的是上述第一個原因。
  • python一元線性回歸分析專題及常見問題 - CSDN
    python多重線性回歸分析多重線性回歸分析定義多重線性回歸模型:Mulitiple Linear Regression多元線性回歸模型:MultivariateLinear Regression數據準備#多重線性回歸#數據準備import pandas as pddf=pd.read_csv('e:/python/out/corr.csv',encoding='utf8')df根據預測目標,確定自變量和因變量#多重線性回歸