1、標準化
對於多元線性回歸需要對各個自變量進行標準化,排除單位的影響。
標準化方法:即將原始數據減去相應變量的均數後再除以該變量的標準差,而標準化得到的回歸方程稱為標準化回歸方程,相應得回歸係數為標準化回歸係數。
2、T檢驗
T檢驗是對各個回歸係數的檢驗,絕對值越大,sig就越小,sig代表t檢驗的顯著性,在統計學上,sig<0.05一般被認為是係數檢驗顯著,顯著的意思就是你的回歸係數的絕對值顯著大於0,表明自變量可以有效預測因變量的變異,做出這個結論你有5%的可能會犯錯誤,即有95%的把握結論正確。
3、F檢驗
F檢驗是對所有回歸係數的檢驗,代表你進行回歸的所有自變量的回歸係數的一個總體檢驗,如果sig<0.05,說明至少有一個自變量能夠有效預測因變量,這個在寫數據分析結果時一般可以寫出。
F檢驗和R平方同向變化,當R方=0時F=0;
當R方越大,F值也就越大
當R方=1時,F為無窮大。
F檢驗是所有回歸係數的總顯著性的度量也是R方的顯著性檢驗,即檢驗回歸係數為0 等價於R方為0,也就是在計算R方後,就不必做F檢驗。
另外對於一元線性回歸,F檢驗等價於T檢驗,因為回歸係數只有一個。
4、R方
對於每組數據,我們可以用最小二乘法來求得一個線性模型,但對於這個模型的效果如何,如何來比較模型之間的好壞呢。R方就是來處理這個問題,它可以來計算預測值和真實y值的匹配程度,當R方(0~1)越接近1,這線性關係越明顯。
而在使用的時候要用調整後的R方,這個值是針對自變量的增多會不斷增強預測力的一個矯正(因為即使沒什麼用的自變量,只要多增幾個,R方也會變大,調整後的R方是對較多自變量的懲罰),R可以不用管,標準化的情況下R也是自變量和因變量的相關