spss多元線性回歸模型專題及常見問題 - CSDN

2021-01-08 CSDN技術社區

   多元線性回歸,主要是研究一個因變量與多個自變量之間的相關關係,跟一元回歸原理差不多,區別在於影響因素(自變量)更多些而已,例如:一元線性回歸方程 為:

    毫無疑問,多元線性回歸方程應該為:

上圖中的 x1,  x2, xp分別代表「自變量」Xp截止,代表有P個自變量,如果有「N組樣本,那麼這個多元線性回歸,將會組成一個矩陣,如下圖所示:


那麼,多元線性回歸方程矩陣形式為:

      其中: 代表隨機誤差, 其中隨機誤差分為:可解釋的誤差 和 不可解釋的誤差,隨機誤差必須滿足以下四個條件,多元線性方程才有意義(一元線性方程也一樣)

1:服成正太分布,即指:隨機誤差必須是服成正太分別的隨機變量。

2:無偏性假設,即指:期望值為0

3:同共方差性假設,即指,所有的  隨機誤差變量方差都相等

4:獨立性假設,即指:所有的隨機誤差變量都相互獨立,可以用協方差解釋。

 

  今天跟大家一起討論一下,SPSS---多元線性回歸的具體操作過程,下面以教程教程數據為例,分析汽車特徵與汽車銷售量之間的關係。通過分析汽車特徵跟汽車銷售量的關係,建立擬合多元線性回歸模型。數據如下圖所示:

 


點擊「分析」——回歸——線性——進入如下圖所示的界面:

 


將「銷售量」作為「因變量」拖入因變量框內, 將「車長,車寬,耗油率,車淨重等10個自變量 拖入自變量框內,如上圖所示,在「方法」旁邊,選擇「逐步」,當然,你也可以選擇其它的方式,如果你選擇「進入」默認的方式,在分析結果中,將會得到如下圖所示的結果:(所有的自變量,都會強行進入)

如果你選擇「逐步」這個方法,將會得到如下圖所示的結果:(將會根據預先設定的「F統計量的概率值進行篩選,最先進入回歸方程的「自變量」應該是跟「因變量」關係最為密切,貢獻最大的,如下圖可以看出,車的價格和車軸 跟因變量關係最為密切,符合判斷條件的概率值必須小於0.05,當概率值大於等於0.1時將會被剔除)


「選擇變量(E)" 框內,我並沒有輸入數據,如果你需要對某個「自變量」進行條件篩選,可以將那個自變量,移入「選擇變量框」內,有一個前提就是:該變量從未在另一個目標列表中出現!,再點擊「規則」設定相應的「篩選條件」即可,如下圖所示:

 

點擊「統計量」彈出如下所示的框,如下所示:

在「回歸係數」下面勾選「估計,在右側勾選」模型擬合度「 和」共線性診斷「 兩個選項,再勾選「個案診斷」再點擊「離群值」一般默認值為「3」,(設定異常值的依據,只有當殘差超過3倍標準差的觀測才會被當做異常值) 點擊繼續。

提示:

共線性檢驗,如果有兩個或兩個以上的自變量之間存在線性相關關係,就會產生多重共線性現象。這時候,用最小二乘法估計的模型參數就會不穩定,回歸係數的估計值很容易引起誤導或者導致錯誤的結論。所以,需要勾選「共線性診斷」來做判斷

  通過容許度可以計算共線性的存在與否? 容許度TOL=1-RI平方 或方差膨脹因子(VIF):  VIF=1/1-RI平方,其中RI平方是用其他自變量預測第I個變量的復相關係數,顯然,VIF為TOL的倒數,TOL的值越小,VIF的值越大,自變量XI與其他自變量之間存在共線性的可能性越大。

提供三種處理方法:
1:從有共線性問題的變量裡刪除不重要的變量

2:增加樣本量或重新抽取樣本。

3:採用其他方法擬合模型,如領回歸法,逐步回歸法,主成分分析法。

再點擊「繪製」選項,如下所示:

  上圖中:

DEPENDENT( 因變量)   ZPRED(標準化預測值)  ZRESID(標準化殘差)    DRESID(剔除殘差)    ADJPRED(修正後預測值)   SRSID(學生化殘差)  SDRESID(學生化剔除殘差)

 一般我們大部分以「自變量」作為 X 軸,用「殘差」作為Y軸, 但是,也不要忽略特殊情況,這裡我們以「ZPRED(標準化預測值)作為"x" 軸,分別用「SDRESID(血生化剔除殘差)」和「ZRESID(標準化殘差)作為Y軸,分別作為兩組繪圖變量。

再點擊」保存「按鈕,進入如下界面:

 

如上圖所示:勾選「距離」下面的「cook距離」選項 (cook 距離,主要是指:把一個個案從計算回歸係數的樣本中剔除時所引起的殘差大小,cook距離越大,表明該個案對回歸係數的影響也越大)

在「預測區間」勾選「均值」和「單值」 點擊「繼續」按鈕,再點擊「確定按鈕,得到如下所示的分析結果:(此分析結果,採用的是「逐步法」得到的結果)



相關焦點

  • spss多元線性回歸專題及常見問題 - CSDN
    本文收集整理關於spss多元線性回歸結果解讀的相關議題,使用內容導航快速到達。內容導航:Q1:請高手幫忙分析下SPSS的多元線性回歸結果吧~急啊~~~你的回歸方法是直接進入法擬合優度R方等於0.678,表示自變量可以解釋因變量的67.8%變化,說明擬合優度還可以。
  • spss 方法 線性回歸專題及常見問題 - CSDN
    本文收集整理關於spss多元線性回歸結果解讀的相關議題,使用內容導航快速到達。內容導航:Q1:請高手幫忙分析下SPSS的多元線性回歸結果吧~急啊~~~你的回歸方法是直接進入法擬合優度R方等於0.678,表示自變量可以解釋因變量的67.8%變化,說明擬合優度還可以。
  • 多元線性回歸預測spss - CSDN
    回歸一直是個很重要的主題。因為在數據分析的領域裡邊,模型重要的也是主要的作用包括兩個方面,一是發現,一是預測。而很多時候我們就要通過回歸來進行預測。關於回歸的知識點也許不一定比參數檢驗,非參數檢驗多,但是複雜度卻絕對在其上。回歸主要包括線性回歸,非線性回歸以及分類回歸。本文主要討論多元線性回歸(包括一般多元回歸,含有虛擬變量的多元回歸,以及一點廣義差分的知識)。
  • 值 多元線性回歸模型專題及常見問題 - CSDN
    多元線性回歸模型通常用來研究一個應變量依賴多個自變量的變化關係,如果二者的以來關係可以用線性形式來刻畫,則可以建立多元線性模型來進行分析。1.模型簡介1.1模型的結構多元線性回歸模型通常用來描述變量y和x之間的隨機線性關係,即:
  • spss線性回歸自變量因變量專題及常見問題 - CSDN
    轉載自公眾號:青年智囊SPSS多元線性回歸在回歸分析中,如果有兩個或兩個以上的自變量,就稱為多元回歸。事實上,一種現象常常是與多個因素相聯繫的,由多個自變量的最優組合共同來預測或估計因變量,比只用一個自變量進行預測或估計更有效,更符合實際,因此多元線性回歸被廣泛運用。今天大家一起來學習吧!
  • 多元線性回歸t檢驗專題及常見問題 - CSDN
    多元線性回歸模型通常用來研究一個應變量依賴多個自變量的變化關係,如果二者的以來關係可以用線性形式來刻畫,則可以建立多元線性模型來進行分析。1.t檢驗t檢驗是對單個變量係數的顯著性檢驗,一般看p值; 如果p值小於0.05表示該自變量對因變量解釋性很強。
  • 多元線性回歸matlab專題及常見問題 - CSDN
    %多元線性回歸求解clearclcx=[120731808012512581.190133.02731808012512581.190129.63731808012512581.190158.77731808012512581.190145.32731808012512581.190
  • 多元線性回歸spss結果分析_spss多元線性回歸分析結果分析 - CSDN
    通過查閱北京統計局出示的有關數據以及閱讀相關文獻,搜集北京市近15年的統計資料,基於SPSS多元線性回歸中的逐步回歸分析法,建立回歸模型。
  • f p 線性回歸專題及常見問題 - CSDN
    \(\omega^{(i)}=\exp(-\frac{(x^{(i)}-x)^2}{2\tau^2})\)單元多項式回歸上邊提到的局部加權線性回歸屬於多元線性回歸,除此之外還有類線性的單元多項式回歸.一元線性回歸-最小二乘當我們希望預測值和真實值的平方和儘量小時,損失函數為\(\sum_{i=1}^n(y_i-\hat y_i)^2\), 這個就是最小二乘線性回歸(Ordinary Least Squares, OLS)。普通最小二乘法是線性回歸預測問題中一個很重要的概念, 並且十分有用,例如可以用來做推薦系統、資金流動預測等。
  • f t 線性回歸專題及常見問題 - CSDN
    1、標準化對於多元線性回歸需要對各個自變量進行標準化,排除單位的影響。標準化方法:即將原始數據減去相應變量的均數後再除以該變量的標準差,而標準化得到的回歸方程稱為標準化回歸方程,相應得回歸係數為標準化回歸係數。
  • r語言多元線性回歸相關性_多元線性回歸調整相關性 - CSDN
    多元線性回歸多元線性回歸的核心問題:應該選擇哪些變量???RSS(殘差平方和)與R2  (相關係數的平方)選擇法:遍歷所有可能的組合,選出使RSS最小,R2  最大的模型。
  • python一元線性回歸分析專題及常見問題 - CSDN
    python多重線性回歸分析多重線性回歸分析定義多重線性回歸模型:Mulitiple Linear Regression多元線性回歸模型:MultivariateLinear Regression數據準備#多重線性回歸#數據準備import pandas as pddf=pd.read_csv('e:/python/out/corr.csv',encoding='utf8')df根據預測目標,確定自變量和因變量#多重線性回歸
  • 原理+代碼|Python實戰多元線性回歸模型
    文章來源: 早起Python作者:蘿蔔前言「多元線性回歸模型」非常常見,是大多數人入門機器學習的第一個案例,儘管如此,裡面還是有許多值得學習和注意的地方。其中多元共線性這個問題將貫穿所有的機器學習模型,所以本文會「將原理知識穿插於代碼段中」,爭取以不一樣的視角來敘述和講解「如何更好的構建和優化多元線性回歸模型」。
  • 一元線性回歸顯著性檢驗專題及常見問題 - CSDN
    一、σ2 的估計  因為假設檢驗以及構造與回歸模型有關的區間估計都需要σ2的估計量,所以先對σ2作估計。的平方根稱為回歸標準誤差,與響應變量y 具有相同的單位。因為σ2取決於殘差平方和, 所以任何對模型誤差假設的違背或對模型形式的誤設都可能嚴重破壞σ2的估計值
  • spss 非線性回歸 - CSDN
    我們在做問卷分析時,由於因變量多為連續的線性變量,多半會採用線性回歸分析來研究變量之間的關係。此時,一般資料或者人口學變量中,就會含有很多分組或分類的變量,比如性別,學歷等等。 如果因變量在這些人口學變量上存在顯著的差異,那麼做回歸分析時候,就需要將這些存在顯著差異的人口學變量作為控制變量納入線性回歸分析。
  • 線性回歸假設檢驗專題及常見問題 - CSDN
    實際上使用左面的函數定義損失函數也能得到一個線性模型,只是並不是我們常說的線性回歸模型而已。所以:損失函數是機器學習模型的核心。(即使相同的模型形式,不同的損失函數對應著不同模型的效果)。如果把模型看成是人工智慧,那麼損失函數就是它的三觀。
  • 美賽真題回顧-多元線性回歸模型預測全球海平面上升幅度
    基於前面收集的數據和已有結果, 這裡將建立多元線性回歸模型來預測由於北極冰雪融化 (主要是格陵蘭冰蓋和北極海冰的融化) 所導致的全球海平 面上升幅度。如圖 1-16 所示為使用多元線性回歸模型對海平面上升幅度進行預測的流程。
  • 多元線性回歸與模型診斷
    一、多元線性回歸1.
  • spss 非線性回歸專題及常見問題 - CSDN
    各位SPSS學堂粉絲大家好,上次我們簡要給大家梳理了一篇有關非線性關係的文章,現在我們就關於此模型的數據如何用SPSS操作和結果分析進行詳細介紹,前面的描述性統計與相關分析等我們之前的文章中都有提到,這裡我們就不再示範,我們直接給大家示範假設檢驗部分的數據分析。
  • r語言 多元回歸模型_r語言多元回歸模型殘差分析 - CSDN
    1、多元線性回歸模型1.1多元回歸模型與多元回歸方程設因變量為y,k個自變量分別為,描述因變量y如何依賴於自變量和誤差項ε的方程稱為多元回歸模型。其一般形式可表示為:式中,為模型的參數,ε為隨機誤差項。