全文共1534字,預計學習時長3分鐘
在機器學習和統計領域,線性回歸模型是最簡單的模型之一。這意味著,人們經常認為對線性回歸的線性假設不夠準確。
例如,下列2個模型都是線性回歸模型,即便右圖中的線看起來並不像直線。
若對此表示驚訝,那麼本文值得你讀一讀。本文試圖解釋對線性回歸模型的線性假設,以及此類線性假設的重要性。
回答上述問題,需要了解以下兩個簡單例子中線性回歸逐步運行的方式。
例1:最簡單的模型
從最簡單的例子開始。給定3對(x,y)訓練數據:(2,4)、(5,1)、(8,9)進行函數建模,發現目標變量y和輸入變量x之間的關係。
這一模型最為簡單,如下所示:
通過運用該簡單的線性函數,可模擬x和y之間的關係。關鍵在於該函數不僅與輸入變量x成線性關係,而且與參數a、b成線性關係。
當前目標是確定最符合訓練數據的參數a和b的值。
這可通過測量每個輸入x的實際目標值y和模型f(x)之間的失配來實現,並將失配最小化。這種失配(=最小值)被稱為誤差函數。
有多種誤差函數可供選擇,但其中最簡單的要數RSS,即每個數據點x對應的模型f(x)與目標值y的誤差平方和。
利用誤差函數的概念,可將「確定最符合訓練數據的參數a、b」改為「確定參數a、b,使誤差函數最小化」。
計算一下訓練數據的誤差函數。
上面的等式就是要求最小值的誤差函數。但是,怎樣才能找到參數a、b,得到此函數的最小值呢?為啟發思維,需要將該函數視覺化。
從上方的3D圖來看,人們會本能地猜測該函數為凸函數。凸函數的優化(找到最小值)比一般數學優化簡單得多,因為任何局部最小值都是整個凸函數的最小值。(簡單來講,就是凸函數只有一個最小點,例如「U」的形狀)由於凸函數的這種特性,通過簡單求解如下的偏微分方程,便可得到使函數最小化的參數。
下面解下之前的例子吧。
通過求解上面的等式,得到a = 5/6、b = 1/2。因此,第一個模型(最小化RSS)如下所示:
示例2:簡單的彎曲模型
現在,對於相同的數據點,可考慮如下的另一模型:
如上所示,該模型不再是輸入變量x的線性函數,但仍是參數a、b的線性函數。
下面看下這一變化對模型擬合過程的影響。我們將使用與前一示例相同的誤差函數——RSS。
如上所示,等式看起來與前一個非常相似。(係數的值不同,但方程的形式相同。)該模型的可視化圖像如下:
兩個模型的形狀看起來也很相似,仍然是凸函數。但秘密在於,當使用訓練數據計算誤差時,輸入變量作為具體值給出(例如,x的值在數據集中給定為22、52和8,即(2,4)、(5,1)、(8,9))。因此,無論輸入變量的形式多複雜(例如x、x、sin(x)、log(x)等......),給定的值在誤差函數中僅為常數。
誤差函數的第二個模型也是凸函數,因此可通過與前一示例完全相同的過程找到最佳參數。
通過求解上面的等式,得到a = 61/618、b = 331/206。所以,第二個模型如下所示:
結論:線性回歸模型的線性假設
上述2個例子的求解過程完全相同(且非常簡單),即使一個為輸入變量x的線性函數,一個為x的非線性函數。兩個模型的共同特徵是兩個函數都與參數a、b成線性關係。這是對線性回歸模型的線性假設,也是線性回歸模型數學單性的關鍵。
上面2個模型非常簡單,但一般而言,模型與其參數的線性假設,可保證RSS始終為凸函數。通過求解簡單偏微分方程,得到最優參數,這就是線性假設至關重要的原因。
留言 點讚 關注
我們一起分享AI學習與發展的乾貨
歡迎關注全平臺AI垂類自媒體 「讀芯術」