eviews 線性回歸模型 - CSDN

2020-12-22 CSDN技術社區

分享經典書籍: A Modern Approach to Regression with R.pdf  

連結: https://pan.baidu.com/s/14NJt7CrOpUUe2hYyrJn_rg  提取碼: 7fv6  

多元線性回歸

掌握多元線性回歸模型的估計方法、掌握多重共線性模型的識別和修正。

多元線性回歸模型,並識別和修正多重共線性。

普通最小二乘法、簡單相關係數檢驗法、綜合判斷法、逐步回歸法。

最小二乘估計的原理、t檢驗、F檢驗、擬合優度R方值。

 

OLS估計模型

設定多元線性回歸模型為:

y=a0+a1*x1+a2*x2+a3*x3+a4*x4

用普通最小二乘法進行估計,點擊主界面菜單Quick\Estimate Equation,在彈出的對話框中輸入:Y C X1 X2 X3 X4,點擊確定即可得到回歸結果,如圖2所示。

根據圖2中的數據,可得到模型的估計結果為:

其中,括號內的數為相應的t檢驗值。從以上回歸結果可以看出,擬合優度很高,整體效果的F檢驗通過。但很明顯,在5%的顯著性水平下,模型中的各參數均不通過檢驗,在10%的顯著性水平下,也只有X2的係數通過檢驗。故認為解析變量之間存在多重共線性。

 

2  多重共線性模型的識別

2.1  綜合判斷法

由模型的估計結果可以看出R方=0.979655,可決係數很高,說明模型對樣本的擬合很好;F=60.18950檢驗值比較大,相應的P=0.000204,說明回歸方程顯著,即各自變量聯合起來確實對因變量Y有顯著影響;給定顯著性水平a=0.05,但變量X1、X2、X3、X4係數的t統計量分別為1.246、2.397、-0.693、0.420,相應的p值分別為0.2681、0.0619、0.5190、0.6916,說明變量均對因變量影響不顯著。綜合上述分析,表明模型存在非常嚴重的多重共線性。

2.2 簡單相關係數檢驗法

計算解析變量X1、X2、X3、X4的簡單相關係數矩陣。

選中X1、X2、X3、X4,產生一個組,然後點擊View\Covariance Analysis\僅選中Correlation,即可得出相關係數矩陣,如圖3所示。再點擊頂部的Freeze按鈕,可以得到一個Table類型獨立的Object:

相關係數矩陣看,各解析變量之間的相關係數較高,相關係數越靠近1,則高度相關,證實解析變量之間存在多重共線性。

 

3  多重共線性模型的修正

關於多重共線性的修正方法一般有變量變換法、先驗信息法、逐步回歸法等。

 

4 異方差性

 異方差性模型的檢驗方法與處理方法

異方差模型的圖形法檢驗、Goldfeld-Quanadt檢驗與White檢驗,使用WLS方法、異方差穩健標準誤方法對異方差進行修正

4.1 檢驗模型的異方差性

4.1.1 圖形檢驗法

生成殘差序列。在得到圖2結果後,在工作文件中點擊Object\Generate Series…,在彈出的窗口中,在主窗口鍵入命令如下「e2=resid^2」,如圖3所示,得到殘差平方和序列e2。

繪製殘差平方和序列e2對變量xi的散點圖。按住Ctrl鍵,同時選擇變量X與e2,以組對象方式打開,進入數據列表,再點擊View\Graph\Scatter\Simple Scatter,可得散點圖,如果殘差平方和e2對xi大致存在遞增關係,即存在單調增型異方差。

4.1.2 White檢驗

回歸估計結果中,點擊View\Residual Diagnostics\ heteroskedasticity Test\White,進入White檢驗,進過估計出現White檢驗的結果如圖9所示。

White統計量nR^2,該值大於5%顯著性水平下自由度為k-1的卡方分布的相應臨界值,則拒絕同方差性的原假設。

 

4.2 異方差性的修正

4.2.1 加權最小二乘法

運用OLS方法估計過程中,我們選用權數w=1/abs(e) (其中abs是取殘差序列的絕對值)。權數生成過程如下,在圖2的情況下,在工作文件中點擊Object\Generate Series…,在彈出的窗口中,在Enter equation處輸入w=1/@abs(resid).

在工作文件中點擊Quick\Estimate Equation,輸入回歸表達式對應命令,

然後,點擊Options選項,選中Weights裡的Type選中Inverse std. dev,在Weight series框中輸入w,點擊確定,即可得到加權最小二乘法的結果

 

4.2.2 異方差穩健性標準誤方法

回歸界面--Spection窗口,點擊Option按鈕,在出現的Estimation Options窗口中,在Coefficient covariance matrix中選中White ,再點擊確定按鈕,即得到結果。

 

4.2.3 對數變換法

 

5 自相關性

 自相關性模型的圖形法檢驗和DW檢驗,使用廣義最小二乘法和廣義差分法進行修正。

DW檢驗:

該回歸方程的中的DW值結合查表即可知,模型中Dw<Dl,顯然模型中存在正自相關。

具體關係如下:https://baike.baidu.com/item/D-W檢驗/8030379 

 

 

殘差圖:

 殘差圖中,殘差的變動有系統模式,連續為正和連續為負,表明殘差存在一階正自相關,模型中t統計量和F統計量的結論不可信,需要採取補救措施。

點擊工作文件窗口工具欄中的Object\Generate Series…,在彈出的對話框中輸入et=resid,如圖4所示,點擊OK得到殘差序列et。

點擊Quick\Graph,在彈出的對話框中輸入:et,再點擊OK,彈出來的窗口選擇Line&Symbol,點擊OK,得到殘差項e與時間的關係圖,如圖5所示,點擊Quick\Graph,在彈出的對話框中輸入:et(-1) et,再點擊OK,在彈出的窗口中選擇Scatter點擊OK,得到殘差項 e(t)與e(t-1)時間的關係圖,如圖6所示。

圖 5                               圖 6

從圖5和圖6中可以看出,隨機幹擾項呈現正相關。

 

拉格朗日乘數檢驗:

在回歸結果界面--點擊View\Residual Diagnostics\Serial Correlation LM Test…,在彈出的對話框中輸入:1,點擊OK,得到

 

採用差分形式作為新數據,估計模型並檢驗相關性

相關焦點

  • eviews線性回歸模型專題及常見問題 - CSDN
    分享經典書籍: A Modern Approach to Regression with R.pdf  連結: https://pan.baidu.com/s/14NJt7CrOpUUe2hYyrJn_rg  提取碼: 7fv6  多元線性回歸
  • spss多元線性回歸模型專題及常見問題 - CSDN
    多元線性回歸,主要是研究一個因變量與多個自變量之間的相關關係,跟一元回歸原理差不多,區別在於影響因素(自變量)更多些而已,例如:一元線性回歸方程 為:    毫無疑問,多元線性回歸方程應該為:   今天跟大家一起討論一下,SPSS---多元線性回歸的具體操作過程,下面以教程教程數據為例,分析汽車特徵與汽車銷售量之間的關係。通過分析汽車特徵跟汽車銷售量的關係,建立擬合多元線性回歸模型。數據如下圖所示:
  • spss線性回歸 回歸方程 - CSDN
    ,用到的分析方法就是線性回歸,決定猛學習一下,再來評判視頻裡的結論。>線性回歸,首先應用於定距變量之間,本質上是分析一個因變量和一組自變量之間的相關關係,既可以解釋,也可以做預測。就是一個用線性回歸解釋相關性的問題。
  • 線性回歸假設檢驗 - CSDN
    對 xxx 的線性回歸是有效的( get_lr_stats 在Python_一元線性回歸及回歸顯著性 中)但是並非全都是線性回歸>>> get_lr_stats(x1_in, y1_in, lrg1)一元線性回歸方程為: y=3.000090909090906 + 0.5000909090909094*x相關係數(
  • spss 方法 線性回歸專題及常見問題 - CSDN
    以照護需求得分為因變量,以可能為影響失能老年人照護需求得分的因素為自變量,採用多元線性回歸篩選出影響失能老年人選擇照護服務需求的因素。本例納入的自變量有年齡、經濟來源、健康自評、失能程度、慢性病患病種類、慢性疼痛、跌倒經歷,賦值方式如表1:
  • 如何用線性回歸模型做數據分析?
    編輯導語:在日常工作中,很多時候都會用到數據分析的方法,線性回歸模型看起來非常簡單,但實際上它的十分重要;本文作者分享了關於如何用線性回歸模型做數據分析的方法,我們一起來學習一下。一、什麼是線性回歸線性回歸是利用線性的方法,模擬因變量與一個或多個自變量之間的關係;對於模型而言,自變量是輸入值,因變量是模型基於自變量的輸出值,適用於x和y滿足線性關係的數據類型的應用場景。
  • 原理+代碼|Python實戰多元線性回歸模型
    其中多元共線性這個問題將貫穿所有的機器學習模型,所以本文會「將原理知識穿插於代碼段中」,爭取以不一樣的視角來敘述和講解「如何更好的構建和優化多元線性回歸模型」。,這裡需要轉換一下,而多元線性回歸模型中類別變量的轉換最常用的方法之一便是將其轉化成虛擬變量。
  • 多元線性回歸的模型解釋、假設檢驗、特徵選擇
    線性回歸是最流行和討論最多的模型之一,它無疑是深入機器學習(ML)的入門之路。這種簡單、直接的建模方法值得學習,這是進入ML的第一步。在繼續討論之前,讓我們回顧一下線性回歸可以大致分為兩類。簡單線性回歸:當只有一個輸入變量時,它是線性回歸最簡單的形式。
  • 的方法 線性回歸方程檢驗專題及常見問題 - CSDN
    回歸方程建立及回歸參數的區間估計,但是它們都是建立在假定因變量和自變量線性相關的基礎上。解:運用Excel對數據進行回歸分析,得到回歸方程和決定係數R平方;三種檢驗方法雖然各有側重,但在一元線性回歸方程的檢驗中,三種檢驗的作用是相同的,因此對於一元線性回歸方程而言,只要選擇一種方法進行檢驗即可。
  • 看不懂Logistic模型?別慌,先來了解它和線性回歸模型的區別!
    作為回歸模型的一種,其實它和簡單線性回歸模型分析有著非常相似的地方,它們的模型方程形式是一致的,右邊都可以寫成b1x+c的方程形式,並且b1和c都是未知的係數參數。但是和多元線性回歸模型的不同之處在於,Logistic回歸模型的因變量不同,這是因為我們將因變量的值做了logit處理變換,而不是直接將該方程的值作為因變量的結果。
  • r語言一元回歸模型專題及常見問題 - CSDN
    如果我們要研究這些事件,找到不同變量之間的關係,我們就會用到回歸分析。一元線性回歸分析是處理兩個變量之間關係的最簡單模型,是兩個變量之間的線性相關關係。讓我們一起發現生活中的規律吧。由於本文為非統計的專業文章,所以當出現與教課書不符的描述,請以教課書為準。本文力求用簡化的語言,來介紹一元線性回歸的知識,同時配合R語言的實現。
  • t值 線性回歸專題及常見問題 - CSDN
    線性回歸 用線性回歸找到最佳擬合直線回歸的目的是預測數值型數據,根據輸入寫出一個目標值的計算公式,這個公式就是回歸方程(regression equation),變量前的係數(比如一元一次方程)稱為回歸係數(regression weights)。
  • 機器學習之多元線性回歸模型梯度下降公式與代碼實現(篇二)
    上一篇我們介紹了線性回歸的概述和最小二乘的介紹,對簡單的一元線性方程模型手推了公式和python代碼的實現。機器學習之線性回歸模型詳細手推公式與代碼實現(篇一)今天這一篇來介紹多元線性回歸模型多元線性回歸模型介紹在回歸分析中,如果有兩個或兩個以上的自變量,就稱為多元回歸
  • 一元線性回歸模型容易理解嗎?讓公式和變量來告訴你!
    什麼是一元線性回歸模型?一元回歸模型,也叫簡單線性回歸,是統計學中最為基礎的部分,也是數理統計中的入門必會模型。在實際研究當中常用於預測一個變量如何隨另一個變量而變化,例如一件商品的購買意願是否會隨著商品的定價變化而變化,這其中的變化關係如何去刻畫描摹,這時就需要搭建一元回歸模型來進行檢驗。一元回歸模型的數據要求是什麼?
  • 基於R軟體實現多元線性回歸
    其基本思想是確定一個方程,給出一組預測變量(X)和一個響應變量(Y)之間的線性關係:式中β1-βn代表了預測變量X1-Xn的回歸係數(斜率),β0是線性方程的截距。回歸的目的是找到一組最優的模型參數(斜率和截距值的組合),使響應變量的觀測值和預測值之間的殘差平方和最小化。
  • 機器學習基本概念-維度災難和線性回歸
    1.4.4 分類和回歸的參數模型克服維度災難的主要方法是對數據分布的性質(p(y|x)或p(x))做一些假設。這些假設被稱為歸納偏差,通常以參數模型的形式體現出來,參數模型是具有固定數量參數的統計模型。
  • 回歸系列(一)|怎樣正確地理解線性回歸
    作者:丁點helper 來源:丁點幫你線性回歸,可能是統計學上運用最廣泛的一類方法了,之所以說它是一類方法,是因為它包括了我們熟知的各種模型:簡單線性回歸、多重線性回歸、Logistic回歸等等。線性回歸運用這麼廣泛很大程度在於它的內在邏輯十分簡單。一般情況下,就是找Y的影響因素或者說是衡量自變量(X)對因變量(Y)的影響程度,即便不理解其中的數學計算也可以很容易地憑藉各種軟體找到我們想要的結果。
  • 回歸系列(四)|一個完整的線性回歸是怎樣做的
    回顧:多重線性回歸多重線性回歸,一般是指有多個自變量X,只有一個因變量Y。前面我們主要是以簡單線性回歸為例在介紹,兩者的差距主要在於自變量X的數量,在只有一個X時,就稱簡單線性回歸。在實際應用中,我們當然很少只納入一個自變量。
  • 線性回歸分析詳解10(完結篇):線性回歸分析預測的十大步驟
    許栩原創專欄《從入門到高手:線性回歸分析詳解》第10章,這是本專欄的最後一章,是專欄的完結篇:用線性回歸分析做預測,多元線性回歸分析預測的十大步驟。線性回歸分析專格欄總目錄請見上圖,前9章,我分別講述了回歸分析及與回分析相關的概念,一元、多元線性回歸分析的公式與計算方法,以及多重共線性、回歸方程的精度、顯著性驗證和置信區間等進行回歸分析的重要步驟及其計算方法。至此,以回歸分析進行需求預測的各項知識點及各項準備工作全部完成,我們可以正式的以回歸分析進行需求預測。
  • 線性擬合與曲線擬合,直接在圖上添加擬合曲線、擬合方程、判別係數...
    1、什麼是線性擬合?線性擬合,顧名思義,針對兩組數據或多組數據,找出一條最佳擬合直線,常用於處理與自變量呈線性關係的因變量。線性擬合是數據處理的常用方法,擬合的目的是對呈現一定數值關係的因變量與自變量找出最佳擬合方程,一般用線性回歸來實現。