eviews 線性回歸模型 - CSDN

2020-12-18 CSDN技術社區

分享經典書籍: A Modern Approach to Regression with R.pdf  

連結: https://pan.baidu.com/s/14NJt7CrOpUUe2hYyrJn_rg  提取碼: 7fv6  

多元線性回歸

掌握多元線性回歸模型的估計方法、掌握多重共線性模型的識別和修正。

多元線性回歸模型,並識別和修正多重共線性。

普通最小二乘法、簡單相關係數檢驗法、綜合判斷法、逐步回歸法。

最小二乘估計的原理、t檢驗、F檢驗、擬合優度R方值。

 

OLS估計模型

設定多元線性回歸模型為:

y=a0+a1*x1+a2*x2+a3*x3+a4*x4

用普通最小二乘法進行估計,點擊主界面菜單Quick\Estimate Equation,在彈出的對話框中輸入:Y C X1 X2 X3 X4,點擊確定即可得到回歸結果,如圖2所示。

根據圖2中的數據,可得到模型的估計結果為:

其中,括號內的數為相應的t檢驗值。從以上回歸結果可以看出,擬合優度很高,整體效果的F檢驗通過。但很明顯,在5%的顯著性水平下,模型中的各參數均不通過檢驗,在10%的顯著性水平下,也只有X2的係數通過檢驗。故認為解析變量之間存在多重共線性。

 

2  多重共線性模型的識別

2.1  綜合判斷法

由模型的估計結果可以看出R方=0.979655,可決係數很高,說明模型對樣本的擬合很好;F=60.18950檢驗值比較大,相應的P=0.000204,說明回歸方程顯著,即各自變量聯合起來確實對因變量Y有顯著影響;給定顯著性水平a=0.05,但變量X1、X2、X3、X4係數的t統計量分別為1.246、2.397、-0.693、0.420,相應的p值分別為0.2681、0.0619、0.5190、0.6916,說明變量均對因變量影響不顯著。綜合上述分析,表明模型存在非常嚴重的多重共線性。

2.2 簡單相關係數檢驗法

計算解析變量X1、X2、X3、X4的簡單相關係數矩陣。

選中X1、X2、X3、X4,產生一個組,然後點擊View\Covariance Analysis\僅選中Correlation,即可得出相關係數矩陣,如圖3所示。再點擊頂部的Freeze按鈕,可以得到一個Table類型獨立的Object:

相關係數矩陣看,各解析變量之間的相關係數較高,相關係數越靠近1,則高度相關,證實解析變量之間存在多重共線性。

 

3  多重共線性模型的修正

關於多重共線性的修正方法一般有變量變換法、先驗信息法、逐步回歸法等。

 

4 異方差性

 異方差性模型的檢驗方法與處理方法

異方差模型的圖形法檢驗、Goldfeld-Quanadt檢驗與White檢驗,使用WLS方法、異方差穩健標準誤方法對異方差進行修正

4.1 檢驗模型的異方差性

4.1.1 圖形檢驗法

生成殘差序列。在得到圖2結果後,在工作文件中點擊Object\Generate Series…,在彈出的窗口中,在主窗口鍵入命令如下「e2=resid^2」,如圖3所示,得到殘差平方和序列e2。

繪製殘差平方和序列e2對變量xi的散點圖。按住Ctrl鍵,同時選擇變量X與e2,以組對象方式打開,進入數據列表,再點擊View\Graph\Scatter\Simple Scatter,可得散點圖,如果殘差平方和e2對xi大致存在遞增關係,即存在單調增型異方差。

4.1.2 White檢驗

回歸估計結果中,點擊View\Residual Diagnostics\ heteroskedasticity Test\White,進入White檢驗,進過估計出現White檢驗的結果如圖9所示。

White統計量nR^2,該值大於5%顯著性水平下自由度為k-1的卡方分布的相應臨界值,則拒絕同方差性的原假設。

 

4.2 異方差性的修正

4.2.1 加權最小二乘法

運用OLS方法估計過程中,我們選用權數w=1/abs(e) (其中abs是取殘差序列的絕對值)。權數生成過程如下,在圖2的情況下,在工作文件中點擊Object\Generate Series…,在彈出的窗口中,在Enter equation處輸入w=1/@abs(resid).

在工作文件中點擊Quick\Estimate Equation,輸入回歸表達式對應命令,

然後,點擊Options選項,選中Weights裡的Type選中Inverse std. dev,在Weight series框中輸入w,點擊確定,即可得到加權最小二乘法的結果

 

4.2.2 異方差穩健性標準誤方法

回歸界面--Spection窗口,點擊Option按鈕,在出現的Estimation Options窗口中,在Coefficient covariance matrix中選中White ,再點擊確定按鈕,即得到結果。

 

4.2.3 對數變換法

 

5 自相關性

 自相關性模型的圖形法檢驗和DW檢驗,使用廣義最小二乘法和廣義差分法進行修正。

DW檢驗:

該回歸方程的中的DW值結合查表即可知,模型中Dw<Dl,顯然模型中存在正自相關。

具體關係如下:https://baike.baidu.com/item/D-W檢驗/8030379 

 

 

殘差圖:

 殘差圖中,殘差的變動有系統模式,連續為正和連續為負,表明殘差存在一階正自相關,模型中t統計量和F統計量的結論不可信,需要採取補救措施。

點擊工作文件窗口工具欄中的Object\Generate Series…,在彈出的對話框中輸入et=resid,如圖4所示,點擊OK得到殘差序列et。

點擊Quick\Graph,在彈出的對話框中輸入:et,再點擊OK,彈出來的窗口選擇Line&Symbol,點擊OK,得到殘差項e與時間的關係圖,如圖5所示,點擊Quick\Graph,在彈出的對話框中輸入:et(-1) et,再點擊OK,在彈出的窗口中選擇Scatter點擊OK,得到殘差項 e(t)與e(t-1)時間的關係圖,如圖6所示。

圖 5                               圖 6

從圖5和圖6中可以看出,隨機幹擾項呈現正相關。

 

拉格朗日乘數檢驗:

在回歸結果界面--點擊View\Residual Diagnostics\Serial Correlation LM Test…,在彈出的對話框中輸入:1,點擊OK,得到

 

採用差分形式作為新數據,估計模型並檢驗相關性

相關焦點

  • eviews線性回歸模型專題及常見問題 - CSDN
    分享經典書籍: A Modern Approach to Regression with R.pdf  連結: https://pan.baidu.com/s/14NJt7CrOpUUe2hYyrJn_rg  提取碼: 7fv6  多元線性回歸
  • 經典線性回歸模型假定 - CSDN
    回歸問題就是擬合輸入變量x與數值型的目標變量y之間的關係,而線性回歸就是假定了x和y之間的線性關係,公式如下:          如下圖所示,我們可以通過繪製繪製(x,y)的散點圖的方式來查看x和y之間是否有線性關係,線性回歸模型的目標是尋找一條穿過這些散點的直線,讓所有的點離直線的距離最短。
  • 多元線性回歸預測spss - CSDN
    回歸一直是個很重要的主題。因為在數據分析的領域裡邊,模型重要的也是主要的作用包括兩個方面,一是發現,一是預測。而很多時候我們就要通過回歸來進行預測。關於回歸的知識點也許不一定比參數檢驗,非參數檢驗多,但是複雜度卻絕對在其上。回歸主要包括線性回歸,非線性回歸以及分類回歸。本文主要討論多元線性回歸(包括一般多元回歸,含有虛擬變量的多元回歸,以及一點廣義差分的知識)。
  • 值 多元線性回歸模型專題及常見問題 - CSDN
    多元線性回歸模型通常用來研究一個應變量依賴多個自變量的變化關係,如果二者的以來關係可以用線性形式來刻畫,則可以建立多元線性模型來進行分析。1.模型簡介1.1模型的結構多元線性回歸模型通常用來描述變量y和x之間的隨機線性關係,即:
  • 多重線性回歸實例 - CSDN
    在上一期SPSS的推文中我們講了一些關於線性回歸的基本知識,還利用一個簡單的實例進行了簡單線性回歸的分析,今天我們就來講講多重線性回歸(也叫多元線性回歸),有關多元線性回歸的概念我在上一期的推文中也已經講過,這裡就不提了。可瀏覽上一篇SPSS的推文:SPSS第二期——線性回歸(上),兩篇對照起來看,或許能學到更多知識。
  • spss多元線性回歸模型專題及常見問題 - CSDN
    下面簡單解釋一下這三張圖中的結果:第一個表模型匯總表中,R表示擬合優度(goodness of fit),它是用來衡量估計的模型對觀測值的擬合程度。它的值越接近1說明模型越好。調整的R平方比調整前R平方更準確一些,圖中的最終調整R方為0.550,表示自變量一共可以解釋因變量55%的變化(variance),另外,由於使用的是StepWise Linear Regression (SWLR),分析——回歸——線性——「方法」選擇「逐步」,所以模型1、2、3的R方逐漸增大,標準誤差逐漸減小。
  • 線性回歸的統計假設 - CSDN
    在用多元線性回歸模型進行統計推斷之前,我們需要知道該模型的基礎假設。假設我們有n個因變量Y及自變量X1,X2,...,Xk的值,我們想推斷多元回歸方程Yi= b0 + b1X1i + b2X2i + ... + bkXki +εi。
  • 多元線性回歸係數檢驗 - CSDN
    多元線性回歸模型通常用來研究一個應變量依賴多個自變量的變化關係,如果二者的以來關係可以用線性形式來刻畫,則可以建立多元線性模型來進行分析。1.t檢驗t檢驗是對單個變量係數的顯著性檢驗,一般看p值; 如果p值小於0.05表示該自變量對因變量解釋性很強。
  • spss線性回歸 回歸方程 - CSDN
    ,用到的分析方法就是線性回歸,決定猛學習一下,再來評判視頻裡的結論。>線性回歸,首先應用於定距變量之間,本質上是分析一個因變量和一組自變量之間的相關關係,既可以解釋,也可以做預測。就是一個用線性回歸解釋相關性的問題。
  • 線性回歸假設檢驗 - CSDN
    對 xxx 的線性回歸是有效的( get_lr_stats 在Python_一元線性回歸及回歸顯著性 中)但是並非全都是線性回歸>>> get_lr_stats(x1_in, y1_in, lrg1)一元線性回歸方程為: y=3.000090909090906 + 0.5000909090909094*x相關係數(
  • 多元線性回歸spss操作 - CSDN
    以照護需求得分為因變量,以可能為影響失能老年人照護需求得分的因素為自變量,採用多元線性回歸篩選出影響失能老年人選擇照護服務需求的因素。本例納入的自變量有年齡、經濟來源、健康自評、失能程度、慢性病患病種類、慢性疼痛、跌倒經歷,賦值方式如表1:
  • f t 線性回歸專題及常見問題 - CSDN
    1、標準化對於多元線性回歸需要對各個自變量進行標準化,排除單位的影響。標準化方法:即將原始數據減去相應變量的均數後再除以該變量的標準差,而標準化得到的回歸方程稱為標準化回歸方程,相應得回歸係數為標準化回歸係數。
  • 如何用線性回歸模型做數據分析?
    編輯導語:在日常工作中,很多時候都會用到數據分析的方法,線性回歸模型看起來非常簡單,但實際上它的十分重要;本文作者分享了關於如何用線性回歸模型做數據分析的方法,我們一起來學習一下。一、什麼是線性回歸線性回歸是利用線性的方法,模擬因變量與一個或多個自變量之間的關係;對於模型而言,自變量是輸入值,因變量是模型基於自變量的輸出值,適用於x和y滿足線性關係的數據類型的應用場景。
  • 多元線性回歸t檢驗專題及常見問題 - CSDN
    多元線性回歸模型通常用來研究一個應變量依賴多個自變量的變化關係,如果二者的以來關係可以用線性形式來刻畫,則可以建立多元線性模型來進行分析。1.t檢驗t檢驗是對單個變量係數的顯著性檢驗,一般看p值; 如果p值小於0.05表示該自變量對因變量解釋性很強。
  • 原理+代碼|Python實戰多元線性回歸模型
    其中多元共線性這個問題將貫穿所有的機器學習模型,所以本文會「將原理知識穿插於代碼段中」,爭取以不一樣的視角來敘述和講解「如何更好的構建和優化多元線性回歸模型」。,這裡需要轉換一下,而多元線性回歸模型中類別變量的轉換最常用的方法之一便是將其轉化成虛擬變量。
  • VAR模型eviews
    Engle和Granger(1987a)指出兩個或多個非平穩時間序列的線性組合可能是平穩的。假如這樣一種平穩的線性組合存在,這些非平穩(有單位根)時間序列之間被認為是具有協整關係的。這種平穩的線性組合被稱為協整方程且可被解釋為變量之間的長期均衡關係。
  • spss 方法 線性回歸專題及常見問題 - CSDN
    以照護需求得分為因變量,以可能為影響失能老年人照護需求得分的因素為自變量,採用多元線性回歸篩選出影響失能老年人選擇照護服務需求的因素。本例納入的自變量有年齡、經濟來源、健康自評、失能程度、慢性病患病種類、慢性疼痛、跌倒經歷,賦值方式如表1:
  • 多元線性回歸的模型解釋、假設檢驗、特徵選擇
    線性回歸是最流行和討論最多的模型之一,它無疑是深入機器學習(ML)的入門之路。這種簡單、直接的建模方法值得學習,這是進入ML的第一步。在繼續討論之前,讓我們回顧一下線性回歸可以大致分為兩類。簡單線性回歸:當只有一個輸入變量時,它是線性回歸最簡單的形式。
  • 多元線性回歸例題 - CSDN
    %多元線性回歸求解clearclcx=[120731808012512581.190133.02731808012512581.190129.63731808012512581.190158.77731808012512581.190145.32731808012512581.190
  • 看不懂Logistic模型?別慌,先來了解它和線性回歸模型的區別!
    作為回歸模型的一種,其實它和簡單線性回歸模型分析有著非常相似的地方,它們的模型方程形式是一致的,右邊都可以寫成b1x+c的方程形式,並且b1和c都是未知的係數參數。但是和多元線性回歸模型的不同之處在於,Logistic回歸模型的因變量不同,這是因為我們將因變量的值做了logit處理變換,而不是直接將該方程的值作為因變量的結果。