淺談「多元線性回歸中的殘差分析」

2021-02-23 統計211網

一、殘差是什麼?

    在建立回歸模型的過程中,由於觀察人員的失誤或偶然因素的幹擾,常會使我們所得到的數據不完全可信,也就是出現異常數據。有的時候,即使結果中的F檢驗證實回歸方程可靠,也不能排除數據存在上述問題。殘差分析的目的就在於解決這一點。在數理統計中,殘差(residual)是指實際觀察值與估計值(擬合值)之間的差。

     二、殘差分析的內容

顯然,有多少對數據,就有多少個殘差。殘差分析就是通過殘差所提供的信息,分析出數據的可靠性、周期性或其它幹擾,主要包括以下內容:

     ①殘差是否服從均值為零的正態分布;

     ②殘差是否為等方差的正態分布;

     ③殘差序列是否獨立;

     ④藉助殘差探測樣本中的異常值

SPSS 操作流程如下:SPSS-analyze-regression-linear-繪製



以標準化殘差(standardized residual)為縱軸,以不同的值為橫軸(如因變量的估計值、各個自變量的估計值等),可以得到不同的分析工具,如殘差分布圖(residual plot)、(partial regression plots)、殘差直方圖(histogram of residuals)、殘差正態概率分布圖(normal probability plots)等。

1. 用殘差直方圖和殘差正態概率分布圖可以檢查是否滿足誤差項分布的正態性假設。


2. 是否滿足方差齊性假設,典型的形狀是三角形或者菱形的殘差分布圖。因為受到非正態偏差的影響較小,所以Levene test受到比較廣泛的使用。如果不滿足,可以採用加權回歸(WLS)。


3. 殘差的獨立性,只要殘差分布圖存在著一個明確的形狀,就意味著殘差與因變量可能不獨立。同樣的道理,用殘差偏回歸分布圖可以檢查殘差對於任意一個指定的自變量是否獨立。如果存在這種情況,可以用變量變換的辦法來試試能否解決。

   

三、小結

「殘差圖」以回歸方程的自變量為橫坐標,以殘差為縱坐標,將每一個自變量的殘差描在該平面坐標上所形成的圖形。當描繪的點圍繞殘差等於0的直線上下隨機散布,說明回歸直線對原觀測值的擬合情況良好。否則,說明回歸直線對原觀測值的擬合不理想。 
  從「殘差圖」可以直觀地看出殘差的絕對數值都比較小,所描繪的點都在以0為橫軸的直線上下隨機散布,回歸直線對各個觀測值的擬合情況是良好的。說明變量X與y之間有顯著的線性相關關係。 
  如果殘差圖中各點的值差別比較大,說明回歸曲線方程與實際值之間差別也比較大。也可以說,殘差圖的波動幅度,反映了回歸方程與實際值之間的差別程度。

如果您喜歡本篇文章, 請分享到朋友圈,謝謝o(^▽^)o

相關焦點

  • r語言多元線性回歸相關性_多元線性回歸調整相關性 - CSDN
    多元線性回歸多元線性回歸的核心問題:應該選擇哪些變量???RSS(殘差平方和)與R2  (相關係數的平方)選擇法:遍歷所有可能的組合,選出使RSS最小,R2  最大的模型。
  • 多元線性回歸與模型診斷
    一、多元線性回歸1.
  • SPSS分析技術:線性回歸分析
    線性回歸分析中,如果僅有一個自變量,可以建立一元線性模型。如果存在多個自變量,則需要建立多元線性回歸模型。線性回歸的過程就是把各個自變量和因變量的個案值帶入到回歸方程式當中,通過逐步迭代與擬合,最終找出回歸方程式中的各個係數,構造出一個能夠儘可能體現自變量與因變量關係的函數式。在一元線性回歸中,回歸方程的確立就是逐步確定唯一自變量的係數和常數,並使方程能夠符合絕大多數個案的取值特點。
  • spss多元線性回歸模型專題及常見問題 - CSDN
    多元線性回歸,主要是研究一個因變量與多個自變量之間的相關關係,跟一元回歸原理差不多,區別在於影響因素(自變量)更多些而已,例如:一元線性回歸方程 為:    毫無疑問,多元線性回歸方程應該為:上圖中的 x1,  x2, xp分別代表「自變量」Xp截止,代表有P個自變量,如果有「N組樣本,那麼這個多元線性回歸,將會組成一個矩陣,如下圖所示:
  • r語言 多元回歸模型_r語言多元回歸模型殘差分析 - CSDN
    1、多元線性回歸模型1.1多元回歸模型與多元回歸方程設因變量為y,k個自變量分別為,描述因變量y如何依賴於自變量和誤差項ε的方程稱為多元回歸模型。其一般形式可表示為:式中,為模型的參數,ε為隨機誤差項。
  • 多元線性回歸預測spss - CSDN
    回歸一直是個很重要的主題。因為在數據分析的領域裡邊,模型重要的也是主要的作用包括兩個方面,一是發現,一是預測。而很多時候我們就要通過回歸來進行預測。關於回歸的知識點也許不一定比參數檢驗,非參數檢驗多,但是複雜度卻絕對在其上。回歸主要包括線性回歸,非線性回歸以及分類回歸。本文主要討論多元線性回歸(包括一般多元回歸,含有虛擬變量的多元回歸,以及一點廣義差分的知識)。
  • 殘差分析思想淺談
    感覺好久沒有認真學習數據分析了,所以今天就隨便看了書,來大致談下殘差分析。
  • SPSS大戰多元回歸分析
    多元回歸分析應用於各個領域,主要有經濟、醫學、農學等。今天小編為大家分享一篇SPSS大戰多元回歸的數據分析實例。線性回歸數據來自於國泰安數據服務中心的經濟研究資料庫。網址:http://www.gtarsc.com/p/sq/。數據名稱為:全國各地區能源消耗量與產量,該數據的年度標識為2006年,地區包括我國30個省,直轄市,自治區(西藏地區無數據)。
  • 值 多元線性回歸模型專題及常見問題 - CSDN
    多元線性回歸模型通常用來研究一個應變量依賴多個自變量的變化關係,如果二者的以來關係可以用線性形式來刻畫,則可以建立多元線性模型來進行分析。1.模型簡介1.1模型的結構多元線性回歸模型通常用來描述變量y和x之間的隨機線性關係,即:
  • 統計計量 | 用R做多元線性回歸分析(文末有福利)
    回顧一下計量課上,多元線性回歸模型的基本假定有哪些?如果違背以上假設,那麼我們回歸的統計結果很可能就不正確了。那麼利用R軟體,如何進行正確而高效的多元線性回歸分析呢?現在我們使用lm()函數擬合多元線性回歸模型。
  • 【線性回歸】多變量分析:多元回歸分析
    實際上大部分學習統計分析和市場研究的人的都會用回歸分析,操作也是比較簡單的,但能夠知道多元回歸分析的適用條件或是如何將回歸應用於實踐,可能還要真正領會回歸分析的基本思想和一些實際應用手法!下面我們就來談談多元回歸分析,這張圖是利用多元線性回歸製作的策略分析圖,你可以理解X軸是重要性,Y軸是表現;首先,多元回歸分析應該強調是多元線性回歸分析!
  • 多元線性回歸分析:納入多元回歸自變量的確定及求解多元回歸方程
    許栩原創專欄《從入門到高手:線性回歸分析詳解》第五章,多元線性回歸分析:如何求解多元線性回歸方程。在前面的章節中我講到,實際需求預測場景中,通常,影響需求的因素不止一個,對需求影響的因素可能多種多樣,也就是說自變量多種多樣,很少能用單一的變量(也即一元線性回歸分析)來做好需求預測。這時,我們需要用到多元線性回歸分析。回歸分析在需求預測的應用,也主要是多元線性回歸分析。對需求預測而言,多元線性回歸更具有實用性和有效性。
  • 範例分析:多元線性回歸分析
    基礎回顧簡單線性和多元線性回歸理論基礎請回顧:相關與回歸分析基礎;一元(簡單線性)相關分析與回歸分析
  • spss多元線性回歸專題及常見問題 - CSDN
    本文收集整理關於spss多元線性回歸結果解讀的相關議題,使用內容導航快速到達。內容導航:Q1:請高手幫忙分析下SPSS的多元線性回歸結果吧~急啊~~~你的回歸方法是直接進入法擬合優度R方等於0.678,表示自變量可以解釋因變量的67.8%變化,說明擬合優度還可以。
  • 多元線性逐步回歸分析
    二、數據分析與多元線性回歸分析一樣,多元逐步回歸分析數據也必須滿足以下4個假設:(1)需要至少2個自變量,且自變量之間互相獨立(本次6個);(2)因變量為為連續變量(本案例產量為連續變量);(3)數據具有方差齊性、無異常值和正態分布
  • 線性回歸:簡單線性回歸詳解
    【導讀】本文是一篇專門介紹線性回歸的技術文章,討論了機器學習中線性回歸的技術細節。線性回歸核心思想是獲得最能夠擬合數據的直線。
  • python多重線性回歸分析
    一個簡單的線性回歸模型測試。定義:線性回歸是利用數理統計中回歸分析,來確定兩種或兩種以上變量間相互依賴的定量關係的一種統計分析方法,運用十分廣泛。表達形式為y =aX+b,b為誤差服從均值為0的正態分布,a為截距。
  • 簡單線性回歸分析
    上一節我們對67例居民身高和體重的相關性分析發現,居民的體重與身高變化密切相關,即隨著身高的增加,體重逐漸上升。我們還是採用之前的數據,介紹SPSS進行線性回歸分析的具體步驟。為0.995,調整R2為0.995,進行線性回歸過程中R2的值在0-1之間,R2越大,表明納入方程的自變量對因變量的解釋程度越高,建立的數學模型也就越魯棒(Robust)。
  • 線性回歸分析思路總結!簡單易懂又全面!
    線性回歸是一種研究影響關係的方法,在實際研究裡非常常見。本文就來梳理下線性回歸分析的分析流程,閒話少說,我們開始吧!線性回歸回歸分析實質上就是研究一個或多個自變量X對一個因變量Y(定量數據)的影響關係情況。
  • 多元線性回歸的模型解釋、假設檢驗、特徵選擇
    多元線性回歸:這是一種線性回歸的形式,當有兩個或多個預測因子時使用。我們將看到多個輸入變量如何共同影響輸出變量,同時還將了解計算與簡單LR模型的不同之處。我們還將使用Python構建一個回歸模型。最後,我們將深入學習線性回歸,學習共線性、假設檢驗、特徵選擇等內容。