eviews 線性回歸模型 - CSDN

2020-12-17 CSDN技術社區

分享經典書籍: A Modern Approach to Regression with R.pdf  

連結: https://pan.baidu.com/s/14NJt7CrOpUUe2hYyrJn_rg  提取碼: 7fv6  

多元線性回歸

掌握多元線性回歸模型的估計方法、掌握多重共線性模型的識別和修正。

多元線性回歸模型,並識別和修正多重共線性。

普通最小二乘法、簡單相關係數檢驗法、綜合判斷法、逐步回歸法。

最小二乘估計的原理、t檢驗、F檢驗、擬合優度R方值。

 

OLS估計模型

設定多元線性回歸模型為:

y=a0+a1*x1+a2*x2+a3*x3+a4*x4

用普通最小二乘法進行估計,點擊主界面菜單Quick\Estimate Equation,在彈出的對話框中輸入:Y C X1 X2 X3 X4,點擊確定即可得到回歸結果,如圖2所示。

根據圖2中的數據,可得到模型的估計結果為:

其中,括號內的數為相應的t檢驗值。從以上回歸結果可以看出,擬合優度很高,整體效果的F檢驗通過。但很明顯,在5%的顯著性水平下,模型中的各參數均不通過檢驗,在10%的顯著性水平下,也只有X2的係數通過檢驗。故認為解析變量之間存在多重共線性。

 

2  多重共線性模型的識別

2.1  綜合判斷法

由模型的估計結果可以看出R方=0.979655,可決係數很高,說明模型對樣本的擬合很好;F=60.18950檢驗值比較大,相應的P=0.000204,說明回歸方程顯著,即各自變量聯合起來確實對因變量Y有顯著影響;給定顯著性水平a=0.05,但變量X1、X2、X3、X4係數的t統計量分別為1.246、2.397、-0.693、0.420,相應的p值分別為0.2681、0.0619、0.5190、0.6916,說明變量均對因變量影響不顯著。綜合上述分析,表明模型存在非常嚴重的多重共線性。

2.2 簡單相關係數檢驗法

計算解析變量X1、X2、X3、X4的簡單相關係數矩陣。

選中X1、X2、X3、X4,產生一個組,然後點擊View\Covariance Analysis\僅選中Correlation,即可得出相關係數矩陣,如圖3所示。再點擊頂部的Freeze按鈕,可以得到一個Table類型獨立的Object:

相關係數矩陣看,各解析變量之間的相關係數較高,相關係數越靠近1,則高度相關,證實解析變量之間存在多重共線性。

 

3  多重共線性模型的修正

關於多重共線性的修正方法一般有變量變換法、先驗信息法、逐步回歸法等。

 

4 異方差性

 異方差性模型的檢驗方法與處理方法

異方差模型的圖形法檢驗、Goldfeld-Quanadt檢驗與White檢驗,使用WLS方法、異方差穩健標準誤方法對異方差進行修正

4.1 檢驗模型的異方差性

4.1.1 圖形檢驗法

生成殘差序列。在得到圖2結果後,在工作文件中點擊Object\Generate Series…,在彈出的窗口中,在主窗口鍵入命令如下「e2=resid^2」,如圖3所示,得到殘差平方和序列e2。

繪製殘差平方和序列e2對變量xi的散點圖。按住Ctrl鍵,同時選擇變量X與e2,以組對象方式打開,進入數據列表,再點擊View\Graph\Scatter\Simple Scatter,可得散點圖,如果殘差平方和e2對xi大致存在遞增關係,即存在單調增型異方差。

4.1.2 White檢驗

回歸估計結果中,點擊View\Residual Diagnostics\ heteroskedasticity Test\White,進入White檢驗,進過估計出現White檢驗的結果如圖9所示。

White統計量nR^2,該值大於5%顯著性水平下自由度為k-1的卡方分布的相應臨界值,則拒絕同方差性的原假設。

 

4.2 異方差性的修正

4.2.1 加權最小二乘法

運用OLS方法估計過程中,我們選用權數w=1/abs(e) (其中abs是取殘差序列的絕對值)。權數生成過程如下,在圖2的情況下,在工作文件中點擊Object\Generate Series…,在彈出的窗口中,在Enter equation處輸入w=1/@abs(resid).

在工作文件中點擊Quick\Estimate Equation,輸入回歸表達式對應命令,

然後,點擊Options選項,選中Weights裡的Type選中Inverse std. dev,在Weight series框中輸入w,點擊確定,即可得到加權最小二乘法的結果

 

4.2.2 異方差穩健性標準誤方法

回歸界面--Spection窗口,點擊Option按鈕,在出現的Estimation Options窗口中,在Coefficient covariance matrix中選中White ,再點擊確定按鈕,即得到結果。

 

4.2.3 對數變換法

 

5 自相關性

 自相關性模型的圖形法檢驗和DW檢驗,使用廣義最小二乘法和廣義差分法進行修正。

DW檢驗:

該回歸方程的中的DW值結合查表即可知,模型中Dw<Dl,顯然模型中存在正自相關。

具體關係如下:https://baike.baidu.com/item/D-W檢驗/8030379 

 

 

殘差圖:

 殘差圖中,殘差的變動有系統模式,連續為正和連續為負,表明殘差存在一階正自相關,模型中t統計量和F統計量的結論不可信,需要採取補救措施。

點擊工作文件窗口工具欄中的Object\Generate Series…,在彈出的對話框中輸入et=resid,如圖4所示,點擊OK得到殘差序列et。

點擊Quick\Graph,在彈出的對話框中輸入:et,再點擊OK,彈出來的窗口選擇Line&Symbol,點擊OK,得到殘差項e與時間的關係圖,如圖5所示,點擊Quick\Graph,在彈出的對話框中輸入:et(-1) et,再點擊OK,在彈出的窗口中選擇Scatter點擊OK,得到殘差項 e(t)與e(t-1)時間的關係圖,如圖6所示。

圖 5                               圖 6

從圖5和圖6中可以看出,隨機幹擾項呈現正相關。

 

拉格朗日乘數檢驗:

在回歸結果界面--點擊View\Residual Diagnostics\Serial Correlation LM Test…,在彈出的對話框中輸入:1,點擊OK,得到

 

採用差分形式作為新數據,估計模型並檢驗相關性

相關焦點

  • eviews線性回歸模型 - CSDN
    分享經典書籍: A Modern Approach to Regression with R.pdf  連結: https://pan.baidu.com/s/14NJt7CrOpUUe2hYyrJn_rg  提取碼: 7fv6  多元線性回歸
  • eviews線性回歸模型專題及常見問題 - CSDN
    分享經典書籍: A Modern Approach to Regression with R.pdf  連結: https://pan.baidu.com/s/14NJt7CrOpUUe2hYyrJn_rg  提取碼: 7fv6  多元線性回歸
  • eviews的線性回歸專題及常見問題 - CSDN
    本實驗通過多元線性回歸分析,探究究竟哪些因素是地方財政教育支出(y)的影響因素,並做出預測。現有地區生產總值(x1)、年末常住人口(x2)、居民人均教育文化娛樂消費(x3)、居民教育消費價格指數(x4)、教育支出在地方財政支出中的比重(x5)這5個變量作為被選變量。
  • spss多元線性回歸模型 - CSDN
    多元線性回歸,主要是研究一個因變量與多個自變量之間的相關關係,跟一元回歸原理差不多,區別在於影響因素(自變量)更多些而已,例如:一元線性回歸方程 為:毫無疑問,多元線性回歸方程應該為:上圖中的 x1,  x2, xp分別代表「自變量」Xp截止,代表有P個自變量
  • 值 多元線性回歸模型專題及常見問題 - CSDN
    多元線性回歸模型通常用來研究一個應變量依賴多個自變量的變化關係,如果二者的以來關係可以用線性形式來刻畫,則可以建立多元線性模型來進行分析。1.模型簡介1.1模型的結構多元線性回歸模型通常用來描述變量y和x之間的隨機線性關係,即:
  • spss多元線性回歸模型專題及常見問題 - CSDN
    多元線性回歸,主要是研究一個因變量與多個自變量之間的相關關係,跟一元回歸原理差不多,區別在於影響因素(自變量)更多些而已,例如:一元線性回歸方程 為:    毫無疑問,多元線性回歸方程應該為:   今天跟大家一起討論一下,SPSS---多元線性回歸的具體操作過程,下面以教程教程數據為例,分析汽車特徵與汽車銷售量之間的關係。通過分析汽車特徵跟汽車銷售量的關係,建立擬合多元線性回歸模型。數據如下圖所示:
  • 多重線性回歸實例 - CSDN
    在上一期SPSS的推文中我們講了一些關於線性回歸的基本知識,還利用一個簡單的實例進行了簡單線性回歸的分析,今天我們就來講講多重線性回歸(也叫多元線性回歸),有關多元線性回歸的概念我在上一期的推文中也已經講過,這裡就不提了。可瀏覽上一篇SPSS的推文:SPSS第二期——線性回歸(上),兩篇對照起來看,或許能學到更多知識。
  • [PRML]回歸模型--貝葉斯線性回歸
    本文包含以下內容:1 簡介在討論線性回歸模型的最大似然的參數設置中,我們已經看到由基函數的數量控制的有效模型的複雜性需要根據數據集的大小控制。獨立的持有(hold-out)數據可以用來確定模型的複雜性,但是這可能在計算上是昂貴的,並且會浪費有價值的數據。因此我們轉向線性回歸的貝葉斯處理,這將避免最大似然的過擬合問題,也將導致僅使用訓練數據自動確定模型複雜度的方法。
  • spss線性回歸 回歸方程 - CSDN
    多元線性回歸,主要是研究一個因變量與多個自變量之間的相關關係,跟一元回歸原理差不多,區別在於影響因素(自變量)更多些而已,例如:一元線性回歸方程 為:    毫無疑問,多元線性回歸方程應該為:上圖中的 x1,  x2, xp分別代表「自變量」Xp截止,代表有P個自變量,如果有「N組樣本,那麼這個多元線性回歸
  • 線性模型(一)普通線性回歸到廣義線性模型
    普通線性回歸線性回歸線性模型如何解決非線性問題建模方法論背景線性模型為什麼能解決非線性問題。同時提醒讀者避免只從字面理解「線性」帶來誤會,即線性模型只能解決線性問題。本章將線性模型定位和表述為在數學表達式上具有線性的表示方式的數學模型,包含普通線性回歸模型和廣義線性模型(線性支持向量機本章不進行講述)。
  • 多元線性回歸spss操作 - CSDN
    轉自個人微信公眾號【Memo_Cleon】的統計學習筆記:多元線性回歸。這次筆記的內容是多元線性回歸的SPSS操作及解讀。嚴格來講,這種一個因變量多個自變量的線性回歸叫多變量線性回歸或者多因素線性回歸更合適一些。多元或者多變量往往指的是多個因變量。
  • [PRML]線性分類模型--概率判別模型
    在統計學術語中,這種模型稱為邏輯回歸,但應強調這是一種分類模型,而不是回歸模型。與式13的比較表明,它與線性回歸模型的平方和誤差函數的梯度具有完全相同的形式。首先,將Newton-Raphson方法應用於具有平方和誤差函數(式12)的線性回歸模型(式3)。
  • 廣義線性模型與邏輯回歸
    學過統計學的同學們應該非常清楚,上述分類超平面其實就是一個多元線性模型。故和是線性相關的。並且在線性回歸中,我們假設響應變量服從正態分布的,即所以我們無法直接採用線性回歸模型進行建模。對於這一類問題,可以用邏輯回歸來處理。在講邏輯回歸之前,先簡單介紹下指數族分布、廣義線性模型,因為邏輯回歸是廣義線性模型的一種,所以我們需要了解如何從廣義線性模型得到邏輯回歸。二、指數族分布之所以先介紹指數族分布,因為指數族分布是所有廣義線性模型的假設條件之一。
  • [PRML]線性回歸模型--線性基函數模型
    這通常稱為線性回歸(linear regression)。,這個暗示了模型的限制。參數的線性化會簡化這類模型的計算,但也會導致一些限制。『tanh』函數的線性組合。在監督學習中如回歸和分類,我們不是尋找輸入變量的分布模型。
  • 線性回歸假設檢驗 - CSDN
    對 xxx 的線性回歸是有效的( get_lr_stats 在Python_一元線性回歸及回歸顯著性 中)但是並非全都是線性回歸>>> get_lr_stats(x1_in, y1_in, lrg1)一元線性回歸方程為: y=3.000090909090906 + 0.5000909090909094*x相關係數(
  • 線性回歸(2)—— 模型評估
    而TSS = RSS + ESS 將其代入 R-square 的公式,則有意思就是我們的模型對真實的標籤值 y 解釋的程度。線性回歸的各種P值1. R-square 的 p 值在說 R-square 的 顯著性之前,我們先聊下線性回歸與方差分析之間的關係。
  • 線性回歸進階——嶺回歸和lasso回歸
    說起線性回歸大家肯定都不陌生,我們經常用這種手段來揭示一組變量間的相關性,一般情況下,我們用線性函數來對數據做出擬合,通過殘差來計算差異度
  • 模型之母:多元線性回歸
    0x00 前言 在線性回歸的前3篇中,我們介紹了簡單線性回歸這種樣本只有一個特徵值的特殊形式,並且了解了一類機器學習的建模推導思想,即:然後通過最優化損失函數或者效用函數,獲得機器學習的模型。然後我們推導並實現了最小二乘法,然後實現了簡單線性回歸。最後還以簡單線性回歸為例,學習了線性回歸的評價指標:均方誤差MSE、均方根誤差RMSE、平均絕對MAE以及R方。
  • 線性模型(二)正則化的回歸
    兩種正則的線性組合稱為ElasticNet(彈性網絡)回歸Sklearn中的正則化的回歸實現較為全面。pd.DataFrame(np.column_stack([x, y]), columns=['x', 'y'])pow_max = 13# 構造不同冪的xfor i in range(2, pow_max):      colname = 'x_%d' % i      data[colname] = data['x']**i普通線性回歸
  • 線性模型(三)邏輯回歸
    至此,經過連結函數轉化後的原值域為正、負無窮該變換稱為logit變換,經過logit變換後可以順利地使用線性回歸模型擬合觀察值的對數機率。此時,我們稱該模型為logit regression或logistic regression,即中文翻譯的邏輯回歸,適用於分類問題。