每個數據科學人都應該知道的7種回歸技術

2020-12-06 CDA數據分析師

介紹

線性回歸和邏輯回歸通常是人們在數據科學中學習的第一種算法。由於它們的受歡迎程度,許多分析師甚至認為它們是唯一的回歸形式。哪兒些稍微有工作經驗的人也會認為它們是所有回歸分析形式的中最重要的。

事實是,有無數種形式的回歸可以使用。每種形式的回歸都有其自身的重要性和最適合應用的特定場景。在本文中,我會以簡單的方式解釋了數據科學中最常用的7種回歸形式。通過這篇文章,我也希望人們能夠對回歸的廣度有一個概念,而不是僅僅對他們遇到的每個問題應都用線性/邏輯回歸,並希望他們能夠使用這麼多的回歸技術!

如果您是數據科學的新手,並且正在尋找一個開始學習的地方,那麼「 數據科學 」課程是一個很好的起點!它涵蓋了Python,統計和預測建模的核心主題,它是你進入數據科學的第一步的完美方法。

什麼是回歸分析?

回歸分析是預測建模技術的一種技術,它研究依賴(目標)和自變量(預測變量)之間的關係。該技術用於預測,時間序列建模和查找變量之間的因果關係。例如,通過回歸可以最好地研究魯莽駕駛與駕駛員發生道路交通事故數量之間的關係。

回歸分析是建模和分析數據的重要工具。在這裡,我們將曲線/直線線擬合到數據點,使得數據點距曲線或直線的距離之間的差異最小化。我將在接下來的章節中詳細解釋這一點。

為什麼我們使用回歸分析?

如上所述,回歸分析是估計兩個或更多變量之間的關係。讓我們通過一個簡單的例子來理解這一點:

比方說,你想根據當前的經濟狀況估算公司的銷售增長率。您有最近的公司數據表明銷售增長約為經濟增長的2.5倍。利用這種洞察力,我們可以根據當前和過去的信息預測公司的未來銷售情況。

使用回歸分析有許多好處。如下:

它表明因變量和自變量之間的顯著關係。它表示多個自變量對一個因變量的影響強度。回歸分析還允許我們比較不同尺度上測量的變量的影響,例如價格變化的影響和促銷活動的數量。這些優勢有助於市場研究人員/數據分析師/數據科學家消除和評估用於構建預測模型的最佳變量集。

我們有多少種回歸技術?

我們有各種各樣的回歸技術可用用於預測。這些技術主要由三個指標(自變量的數量,因變量的類型和回歸線的形狀)驅動。我們將在以下部分詳細討論它們。

對於創造性的,如果您覺得需要使用上述參數的組合,您甚至可以製作新的回歸,以前人們沒有使用過。但在開始之前,讓我們了解最常用的回歸:

1.線性回歸

它是最廣為人知的建模技術之一。線性回歸通常是人們在學習預測建模時最先選擇的幾個方法之一。在該方法中,因變量是連續的,自變量可以是連續的或離散的,並且回歸線的性質是線性的。

線性回歸使用最佳擬合直線(也稱為回歸線)在因變量(Y)和一個或多個自變量(X)之間建立關係。

它由方程Y = a + b * X + e表示,其中a是截距,b是直線的斜率,e是誤差項。該等式可以根據給定的預測變量預測目標變量的值。

簡單線性回歸和多元線性回歸之間的區別在於,多元線性回歸具有(> 1)個獨立變量,而簡單線性回歸只有1個獨立變量。現在的問題是「我們如何獲得最佳擬合線?」。

如何獲得最佳擬合線(a和b的值)?

這項任務可以通過最小二乘法輕鬆完成。它是用於擬合回歸線的最常用方法。它通過最小化每個數據點到直線的垂直偏差的平方和來計算觀測數據的最佳擬合線。因為偏差首先要平方,所以當相加時,正值和負值之間不會抵消。

我們可以使用度量的R平方來評估模型性能 。

重點:

自變量和因變量之間必須存在線性關係多元回歸存在多重共線性,自相關,異方差等問題。線性回歸對異常值非常敏感。它可以極大地影響回歸線並最終影響預測值。多重共線性可以增加係數估計的方差,並使估計對模型中的微小變化非常敏感。結果是係數估計不穩定在多個獨立變量的情況下,我們可以選擇正向選擇,逆向淘汰和逐步方法來選擇最重要的自變量。2. 邏輯回歸

邏輯回歸方法用於查找事件成功的概率和失敗的概率。當因變量本質上是二進位(0/1,真/假,是/否)時,我們應該使用邏輯回歸。這裡Y值的範圍從0到1,它可以用下面的等式表示。

odds = p /(1-p)=事件發生概率/非事件發生概率 ln(賠率)= ln(p /(1-p)) logit(p)= ln(p /(1-p))= b0 + b1X1 + b2X2 + b3X3 .... + bkXk

以上,p是存在感興趣特徵的概率。這時候你應該要問一個問題就是「為什麼我們要在等式中使用對數log?」。

由於我們在這裡使用的是二項分布(因變量),我們需要選擇最適合此分布的連結函數。而且,它是logit函數。在上面的等式中,選擇此參數是為了以最大化觀察樣本值的可能性,而不是最小化平方誤差的總和(如在普通回歸中一樣)。

重點:

它被廣泛用於分類問題邏輯回歸不需要依賴因變量和自變量之間的線性關係。它可以處理各種類型的關係,因為它將非線性對數變換應用於預測的優勢比為避免過度擬合和欠擬合,我們應該包括所有重要的變量。確保這種做法的一個好方法是使用逐步方法來估計邏輯回歸它需要較大樣本量,因為在樣本量較小時,最大似然估計的效率低於普通的最小二乘法自變量不應相互關聯,即不具有多重共線性。但是,我們可以選擇在分析和模型中包含分類變量的交互作用。如果因變量的值是序數,那麼它被稱為序數邏輯回歸如果因變量是多類的,那麼它被稱為多元邏輯回歸。3.多項式回歸

如果自變量的冪大於1,則回歸方程是多項式回歸方程。下面的等式表示多項式方程:

Y = A + B * X ^ 2

在這種回歸技術中,最佳擬合線不是直線。它是一條與數據點吻合的曲線。

重點:

雖然可能存在擬合更高次多項式以獲得更低誤差的誘惑,但這可能會導致過度擬合。始終繪製關係圖以查看是否匹配,並專注於確保曲線符合問題的本質。以下是繪圖如何幫助的示例:

特別注意的是末端的曲線,看看這些形狀和趨勢是否有意義。較高的多項式最終會產生奇怪的結果。4.逐步回歸

當我們處理多個自變量時,會使用這種形式的回歸。在這種技術中,自變量的選擇是在自動過程的幫助下完成的,這個過程是不需要人為的去進行幹預的。

通過觀察R方、t檢驗和AIC指標等統計值來識別重要變量,可以實現這一壯舉。逐步回歸基本上適合回歸模型,通過基於指定的標準一次一個地添加/刪除協變量。下面列出了一些最常用的逐步回歸方法:

標準逐步回歸做兩件事。它根據每個步驟的需要添加和刪除預測變量。正向選擇從模型中最重要的預測變量開始,並為每個步驟添加變量。向後消除從模型中的所有預測變量開始,並刪除每個步驟的最不重要的變量。該建模技術的目的是以最少的預測變量來最大化預測能力。它是處理數據集更高維度的方法之一。

5.嶺回歸

嶺回歸是一種在數據存在多重共線性(自變量高度相關)時使用的技術。在多重共線性中,即使最小二乘估計(OLS)是無偏的,但它們的方差也很大,這使得觀測值偏離真實值。通過在回歸估計中增加一定程度的偏差,嶺回歸可以減少標準誤差。

上面,我們看到了線性回歸的方程。還記得嘛?它可以表示為:

y = a + b * x

這個方程也有一個誤差項。完整的等式變為:

y = a + b * x + e(誤差項),[誤差項是校正觀測值和預測值之間預測誤差所需的值] 表示多個自變量,=> y = a + y = a + b1x1 + b2x2 + .... + e。

在線性方程中,預測誤差可以分解為兩個子分量。首先是由於偏差,第二是由於方差。由於這兩個或兩個組件中的任何一個,都可能發生預測錯誤。在這裡,我們將討論由於方差引起的錯誤。

嶺回歸通過收縮參數 λ(lambda)解決了多重共線性問題 。看下面的方程。

在這個方程中,我們有兩個組成部分。第一個是最小二乘項,另一個是β2 (β平方)總和的λ,其中β是係數。這被添加到最小二乘項,以便縮小參數以具有非常低的方差。

重點:

該回歸的假設與最小二乘回歸相同,但不假設正態性它會縮小係數的值,但不會達到零,這表明沒有特徵選擇功能這是一種正則化方法,並使用l2正則化。6.Lasso回歸

類似於嶺回歸,Lasso(最小絕對收縮和選擇算子)也會對回歸係數的絕對大小進行限制。此外,它還能夠降低線性回歸模型的可變性並提高其準確性。請看下面的方程:

Lasso回歸與嶺回歸的不同之處在於,它在懲罰函數中使用絕對值而不是平方。這導致懲罰(或等效地約束估計值的絕對值的總和)值,從而導致一些參數估計值恰好為零。應用的懲罰越大,估計值就會縮小到絕對零值。這導致從給定的n個變量中進行變量選擇。

重點:

該回歸的假設與最小二乘回歸相同,但不假設正態性它將係數縮小到零(恰好為零),這肯定有助於特徵選擇這是一種正則化方法並使用l1正則化如果預測變量高度相關,則Lasso僅選取其中一個並將其他預測縮減為零7.彈性網絡回歸

彈性網絡回歸是Lasso回歸和嶺回歸技術的混合體。它使用L1和L2先驗作為正則化器進行訓練。當存在多個相關的特徵時,彈性網絡是很有用的。Lasso可能隨機選擇其中一種,而彈性網很可能同時選擇兩個。

在Lasso回歸和嶺回歸之間進行權衡的一個實際優勢是,它允許彈性網絡在旋轉下繼承嶺回歸的一些穩定性。

重點:

在變量高度相關的情況下,它鼓勵群體效應所選變量的數量沒有限制它會受到雙重收縮的影響如何選擇正確的回歸模型?

當你只知道一兩種技術時,生活通常是很簡單的。我所知道的其中一個培訓機構告訴他們的學生 - 如果結果是連續的 - 那就用線性回歸。如果是二進位的 - 那就用邏輯回歸!但是,我們可以使用的選項數量越多,選擇正確的選項就越困難。回歸模型也會發生類似的情況。

在多種類型的回歸模型中,基於自變量和因變量的類型,數據中的維度以及數據的其他基本特徵來選擇最適合的回歸方法是很重要的。以下是應該選擇正確的回歸模型的關鍵因素:

數據挖掘是構建預測模型的必然部分。在選擇正確的模型之前,應該首先確定變量之間的相關係數和影響為了比較不同模型的擬合優度,我們可以分析不同的指標,如參數的統計顯著性,R方,調整後的R方,AIC指標,BIC指標和誤差項。另一個是Mallow的Cp標準。這基本上通過將模型與所有可能的子模型(仔細選擇它們)進行比較,來檢查模型中可能存在的偏差。交叉驗證是評估用於預測的模型的最佳方式。在這裡,可以將數據集分為兩組(訓練和驗證)。觀測值和預測值之間的簡單均方差可以衡量預測的準確性。如果你的數據集有多個混淆變量,則不應選擇自動模型選擇方法,因為你不會希望同時將它們放在模型中。這也取決於你的目標。與具有高度統計意義的模型相比,功能較弱的模型更容易實現。回歸正則化方法(Lasso回歸,嶺回歸和彈性網絡回歸)在數據集中各變量之間具有高維度和多重共線性的情況下運行良好。

結束語

到現在為止,我希望你已經對回歸有所了解。考慮數據條件來應用這些回歸技術。找出使用哪種技術的最佳技巧之一就是檢查變量族,即離散變量還是連續變量。

在本文中,我討論了7種類型的回歸以及與每種技術相關的一些關鍵事實。作為這個行業的新人,我建議你學習這些技術,然後在你的模型中實現它們。

-以上就是作者推薦的七種數據科學人必知必會的七種回歸模型,如果大家對這七種模型感興趣,那就自己動手去實驗一下吧,只知道理論是不夠的,要多動手實驗,才能真正的掌握這些模型。

7 Types of Regression Techniques you should know!

相關焦點

  • 每個數據科學家都應該知道的10種機器學習方法
    請注意,您還可以使用線性回歸來估計每個因素的權重,這有助於最終預測消耗的能量。例如,一旦有了公式,就可以確定年齡,大小或身高是否最重要。▲建築能耗(kWh)的線性回歸模型估計回歸技術的範圍從簡單(如線性回歸)到複雜(如正則化線性回歸,多項式回歸,決策樹和隨機森林回歸,神經網絡等)。但不要陷入困境:首先研究簡單的線性回歸,掌握基礎,然後繼續前進。
  • 你應該掌握的七種回歸技術
    【編者按】回歸分析是建模和分析數據的重要工具。本文解釋了回歸分析的內涵及其優勢,重點總結了應該掌握的線性回歸、邏輯回歸、多項式回歸、逐步回歸、嶺回歸、套索回歸、ElasticNet回歸等七種最常用的回歸技術及其關鍵要素,最後介紹了選擇正確的回歸模型的關鍵因素。什麼是回歸分析?
  • 數據分析不得不知的七種回歸分析技術
    回歸分析也允許我們去比較那些衡量不同尺度的變量之間的相互影響,如價格變動與促銷活動數量之間聯繫。這些有利於幫助市場研究人員,數據分析人員以及數據科學家排除並估計出一組最佳的變量,用來構建預測模型。我們有多少種回歸技術?有各種各樣的回歸技術用於預測。這些技術主要有三個度量(自變量的個數,因變量的類型以及回歸線的形狀)。
  • 每個數據科學家都應該知道的5種概率分布
    它們允許熟練的數據科學家識別其他完全隨機變量的模式。在某種程度上,大多數其他數據科學或機器學習技能都基於對數據概率分布的某些假設。這使得概率知識成為統計學家構建工具箱的基礎。如果您正在尋找如何成為數據科學家的第一步。不用多說,讓我們切入正題。什麼是概率分布?
  • 7種執行簡單的線性回歸的分析與討論!
    【IT168 資訊】對於無數的數據科學家來說,線性回歸是許多統計建模和預測分析項目的起點。擬合的重要性,無論是準確的還是快速的,對於大數據集的線性模型都不能被誇大。下面是其他7種更快更清潔的方法,但它們並不都具備相同數量的信息或建模靈活性。下面將簡要討論每種方法。
  • 敲黑板:你應知道的5種回歸類型及屬性!
    【IT168 資訊】線性和邏輯回歸通常是人們首先學習機器學習和數據科學學習的建模算法。兩者都很好,因為它們易於使用和解釋。然而,它們固有的簡單性也帶有一些缺點,在很多情況下它們並不是真正的回歸模型的最佳選擇。本文將會介紹幾種不同類型的回歸,每種都有自己的優點和缺點。
  • 每個人都應該知道的10種色彩搭配與技巧
    在上嘉,我們的目標是使所有人都可以訪問我們的內容,並獲得裝修方面的知識。因此,今天,我們將介紹每個準備裝修房子或正在裝修的業主都應該知道的色彩搭配原理與技巧。閱讀後,請確保將此連結存儲在易於訪問的位置。下次您不確定是否選擇了正確的油漆顏色時,它會派上用場。1.如何使用色輪色輪可能是您從小就學到並且從未想過的東西之一。
  • 機器學習初學者都應該知道的5類回歸損失函數
    直觀一點的說,我們可以這樣想:如果我們只需要對所有試圖最小化MSE的觀測結果給出一個預測,那麼這個預測應該是所有目標值的平均值。但如果我們試著最小化MAE,這個預測就是所有觀測值的中位數。我們不難知道中位數比平均值對異常值更穩健,因此使得MAE比MSE對異常值更穩健。
  • 【果殼網專訪】科學人對話《自然》雜誌總編菲利普·坎貝爾
    自然集團的所有期刊都這樣,因此我們比較特別。你問我怎麼提升影響因子?我們只是發表我們能找到的最好論文而已,年復一年,一直如此。而從結果來看,人們似乎認為我們做得還不錯。科學人:那麼你們都喜歡什麼樣的文章?菲利普•坎貝爾:可以是技術上的突破,能夠造福很多研究者的那種。
  • 科學人對話《自然》雜誌總編:「中國學術界的進步令人驚訝」
    菲利普•坎貝爾:可以是技術上的突破,能夠造福很多研究者的那種。也可以是澄清了一個許多人都想知道答案的問題。還可以是有巨大社會影響的文章。偶爾我們也會發表那些科學上或許沒那麼重要,但是和社會問題息息相關的論文,比如一種疾病的流行病學——也許在流行病學上沒什麼太新的東西,但是這種疾病目前非常引人注目,需要得到結果。
  • 【果殼網專訪】科學人對話《科學美國人》總編
    它的紙刊月銷量45萬,郵件訂閱57萬,月均線上訪問人數400萬(四分之一來自移動端),社交媒體粉絲超過百萬,這個數據無論對什麼雜誌而言都很值得一提,更何況這是一本創刊170年的科學雜誌。愛因斯坦等148位諾獎得主為它貢獻過240篇文章,擁有世界範圍有14個不同語言版本500萬讀者。
  • 入門| 從線性回歸到無監督學習,數據科學家需要掌握的十大統計技術
    本文介紹了數據科學家需要掌握的十大統計技術,包括線性回歸、分類、重採樣、降維、無監督學習等。不管你對數據科學持什麼態度,都不可能忽略分析、組織和梳理數據的重要性。Glassdoor 網站根據大量僱主和員工的反饋數據製作了「美國最好的 25 個職位」榜單,其中第一名就是數據科學家。
  • 關鍵概念:每個數據科學家都應了解的5個概念
    多重共線性可以描述為在回歸模型中,兩個或多個解釋變量解釋相似信息或高度相關。這一概念之所以引起關注,有以下幾個原因。對於某些建模技術來說,多重共線性可能導致過擬合,最終降低模型性能。冗餘數據時有出現,模型中的所有特徵或屬性並非都是有必要的。因此,可以採用某些方法來找到應該被刪除的特徵,正是它們導致了多重共線性。
  • 數據科學家應該知道的頂級機器學習算法
    通常,兩種方法都是有用的。但是,我們將專注於通過相似性進行算法分組,並瀏覽各種不同的算法類型。按學習風格分組的機器學習算法算法可以用多種方式對問題進行建模,因為它涉及與體驗的交互。但是,無論我們要如何調用輸入數據都沒有關係。而且,算法在機器學習和人工智慧中很流行教科書。也就是說,首先要考慮一種算法可以適應的學習方式。通常,機器學習算法只能具有幾種主要的學習方式。
  • 星光熠熠:果殼網科學人首批科學顧問,他們都是誰?
    3月23日晚,果殼網「科學人之夜」活動在北京自然博物館舉行,活動公布了科學人聘任的首批科學顧問名單。攝影:科學人劉彤傑(探月與航天工程中心二期工程總體部部長)簡介:劉彤傑是國家航天局所屬探月中心二期總體部部長,負責探月二期工程組織實施和後續項目論證等具體工作。……嗯,因為大家都知道的原因,劉彤傑老師的工作就不多介紹了,總之他就是熱愛航天、熱心科普就對了。
  • 什麼叫數據挖掘_數據挖掘技術解析
    數據挖掘的目標是提取可以容易轉換成邏輯規則或可視化表示的定性模型,與傳統的統計學相比,更加以人為本。      數據挖掘技術簡述   數據挖掘的技術有很多種,按照不同的分類有不同的分類法。下面著重討論一下數據挖掘中常用的一些技術:統計技術,關聯規則,基於歷史的分析,遺傳算法,聚集檢測,連接分析,決策樹,神經網絡,粗糙集,模糊集,回歸分析,差別分析,概念描述等十三種常用的數據挖掘的技術。   1、統計技術   數據挖掘涉及的科學領域和技術很多,如統計技術。
  • 天文學是最美麗的「無用」之學 科學人
    我們想像一下,在五千年前,沒有天氣預報,沒有科學種田,我們特別依賴於風調雨順,糧食怎樣種的好是關係到整個民族的大事。所有農業活動在播種之前要做的事情是燒田,把荒蕪的雜草除盡,燒後的雜草會形成草木灰,是非常好的肥料。所以如果我們在黃昏時,發現天蠍座這顆亮星,就提醒我們應該燒田了,所以古人就相信這裡面存在著某種暗示,並且這顆星還是大紅色的,所以我們又給其起名為大火星。
  • 【乾貨】機器學習中的五種回歸模型及其優缺點
    【IT168 技術】線性和邏輯斯蒂(Logistic)回歸通常是是機器學習學習者的入門算法,因為它們易於使用和可解釋性。然而,儘管他們簡單但也有一些缺點,在很多情況下它們並不是最佳選擇。實際上存在很多種回歸模型,每種都有自己的優缺點。  在這篇文章中,我們將介紹5種最常見的回歸算法及特點。
  • SPSS分析技術:線性回歸分析
    相關分析請點擊回顧:SPSS分析技術:Pearson相關、Spearman相關及Kendall相關;SPSS分析技術:偏相關分析;SPSS分析技術:低測度數據的相關性分析;回歸分析就是分析變量之間隱藏的內在規律,並建立變量之間函數變化關係的一種分析方法,回歸分析的目標就是建立由一個因變量和若干自變量構成的回歸方程式
  • 新手請進:每個Python程式設計師都應該知道的10個縮寫詞
    學習過程中,我們會逐漸熟悉它的數據結構、控制流、類、函數和其他基本知識。還有一件有趣的事人們不常提起:我們時不時就會遇到Python中的各種首字母縮寫詞。本文將回顧十個這樣的縮寫詞,包括通用的編程原理以及特定的Python編碼,每個詞都有自己有用有趣的方面。1.