[PRML]線性回歸模型--線性基函數模型

2021-02-20 我不愛機器學習

本文主要包含以下內容:

1 簡介

2 最大似然和最小二乘

3 最小二乘幾何

4 序列學習

5 正則化最小二乘

6 多元輸出


1 簡介

其中

因此,通過輸入變量的固定的非線性函數的組合來擴展這個模型的類:

其中

參數

式中

在模式識別的應用中,對原始數據變量,會應用固定的預處理形式或特徵提取。如果原始變量包含向量

通過使用非線性基函數,則函數

式2形式的函數被稱為線性模型,因為在

多項式回歸就是這個模型的一個特例,基函數是

其中

另一個s形的基函數的概率形式為:

同樣地,可以用tanh函數,因為圖1所示。

另一個基函數的可能選擇是傅立葉基函數,其是正弦函數的擴展。每個基函數表示一個特定的頻率並且有無限的空間延伸。對比發現,基函數是在由不同空間頻率光譜組成的輸入空間的有限區域內局部化。在許多信號處理中,感興趣的是在空間和頻率上局部化的基函數,即小波(wavelets)。它們也被定義為相互正交,以簡化它們的應用。小波最適用於輸入值位於規則晶格上的情況,例如時間序列中連續的時間點,或圖像中的像素。

2 最大似然和最小二乘

假設目標變量

式中

如果假設損失函數是平方損失函數,則對於新值式8,條件均值可以簡化為:

高斯噪聲假設暗示給定

現在考慮輸入數據集式8中採樣,則得到以下的似然函數的表達式,它是可調參數

式中利用了式3。在監督學習中如回歸和分類,我們不是尋找輸入變量的分布模型。因為

取似然函數的對數並利用單元高斯的標準形式,則有:

式中平方和誤差函數定義如下:

已經寫好了似然函數,下面用似然函數確定

梯度設為0:

然後得到:

上式被稱為最小二乘問題的正規方程(normal equations)。

數量:

被稱為矩陣

此時,我們可以對偏差參數式12)變為:

式中定義了:

因此偏差

也可以對噪聲精度參數式11,得到:

因此可以看到噪聲精度的逆由回歸函數周圍的目標值的剩餘方差(residual variance)給出。

3 最小二乘幾何

考慮最小二乘解的幾何解釋。考慮一個圖2所示。

定義式12等於

根據圖2,這種解決方案對應於

在實踐中,正規方程的一個直接的解決方案會導致數值困難當

4 序列學習

批處理技術,例如涉及一次性處理整個訓練集的最大似然解(式15),對於大型數據集來說計算成本很高。如果數據集足夠大,那麼使用順序算法(sequential algorithms)可能是值得的,也稱為在線算法(on-line algorithms),在這種算法中,每次考慮一個數據點,並在每次這樣的展示後更新模型參數。順序學習也適用於實時應用,在這種應用中,數據觀察是在一個連續的流中到達的,並且必須在看到所有數據點之前做出預測。

我們可以通過應用隨機梯度下降(stochastic gradient descent)技術,也稱為順序梯度下降(sequential gradient descent),來獲得一個順序學習算法。如果誤差函數包含數據點的和

式中式12,得:

式中

5 正則化最小二乘

為了控制過擬合,我們在誤差函數中引入了添加正則項的思想,從而使總誤差函數最小化:

也要考慮平方和誤差函數:

則總誤差函數變為:

這種特殊的正則化選擇在機器學習文獻中被稱為權值衰減(weight decay),因為在順序學習算法中,它鼓勵權值向零衰減,除非有數據支持。在統計學中,它提供了一個參數收縮(parameter shrinkage)方法的示例,因為它將參數值收縮到接近於零。

它的優點是誤差函數仍然是式27關於

這代表了最小二乘解(式15)的簡單擴展。

有時會使用更一般的正則化,正則化誤差採用這種形式:

其中式27)。圖3給出了不同

為了了解這一點,我們首先注意到最小化(式29)等價於最小化受約束的非正則化平方和誤差(式12)

為了獲得參數圖4中看出,在約束條件(式30)下誤差函數的最小值。隨著

通過限制模型的有效複雜度正則化使得複雜模型可以在有限大小的數據集上進行訓練,而不會出現嚴重的過擬合。然而,確定最優模型複雜度的問題從尋找合適的基函數數量轉移到確定正則化係數的合適值

6 多元輸出

到目前為止,已經考慮了單一目標變量

式中,

如果有一組觀測

和之前一樣,我們可以最大化這個關於

如果檢查每個目標變量

其中

推廣到具有任意協方差矩陣的一般高斯噪聲分布是直接的。同樣,這導致了

相關焦點

  • [PRML]回歸模型--貝葉斯線性回歸
    我們可以用一個簡單的直線擬合例子來說明貝葉斯學習在線性基函數模型中,以及後驗分布的順序更新。為了說明貝葉斯線性回歸模型的預測分布,讓我們回到合成正弦數據集。在圖8中,我們將一個由高斯基函數的線性組合組成的模型擬合到不同大小的數據集上,然後觀察相應的後驗分布。
  • [PRML]線性分類模型--概率判別模型
    在討論線性回歸模型,其中一個基函數通常設置為一個常數,即這種固定的基函數模型有重要的限制,這些將在後面的文章中通過允許基函數本身適應數據來解決。儘管有這些限制,具有固定非線性基函數的模型在應用中扮演著重要的角色,並且對這種模型的討論將引入許多關鍵的概念,以便理解它們更複雜的對等物。
  • 線性模型(一)普通線性回歸到廣義線性模型
    同時提醒讀者避免只從字面理解「線性」帶來誤會,即線性模型只能解決線性問題。本章將線性模型定位和表述為在數學表達式上具有線性的表示方式的數學模型,包含普通線性回歸模型和廣義線性模型(線性支持向量機本章不進行講述)。
  • 廣義線性模型與邏輯回歸
    學過統計學的同學們應該非常清楚,上述分類超平面其實就是一個多元線性模型。故和是線性相關的。並且在線性回歸中,我們假設響應變量服從正態分布的,即所以我們無法直接採用線性回歸模型進行建模。對於這一類問題,可以用邏輯回歸來處理。在講邏輯回歸之前,先簡單介紹下指數族分布、廣義線性模型,因為邏輯回歸是廣義線性模型的一種,所以我們需要了解如何從廣義線性模型得到邏輯回歸。二、指數族分布之所以先介紹指數族分布,因為指數族分布是所有廣義線性模型的假設條件之一。
  • 兩個例子告訴你:什麼是「線性」回歸模型?
    全文共1534字,預計學習時長3分鐘在機器學習和統計領域,線性回歸模型是最簡單的模型之一。這意味著,人們經常認為對線性回歸的線性假設不夠準確。例如,下列2個模型都是線性回歸模型,即便右圖中的線看起來並不像直線。
  • 模型之母:多元線性回歸
    0x00 前言 在線性回歸的前3篇中,我們介紹了簡單線性回歸這種樣本只有一個特徵值的特殊形式,並且了解了一類機器學習的建模推導思想,即:然後通過最優化損失函數或者效用函數,獲得機器學習的模型。然後我們推導並實現了最小二乘法,然後實現了簡單線性回歸。最後還以簡單線性回歸為例,學習了線性回歸的評價指標:均方誤差MSE、均方根誤差RMSE、平均絕對MAE以及R方。
  • 線性模型(三)邏輯回歸
    上述的表達式f可以按照指數的形式改寫成式(9-13)參考表9-1第二行,從廣義線性模型的定義來看,邏輯回歸實際上是連結函數為 的廣義線性模型,並假設因變量服從二項分布。:稱為機率(Odds)。至此,經過連結函數轉化後的原值域為正、負無窮該變換稱為logit變換,經過logit變換後可以順利地使用線性回歸模型擬合觀察值的對數機率。
  • 線性回歸(2)—— 模型評估
    在分類算法中,這種差異的衡量用一種角度來判斷,那就是是否預測到了正確的分類,而對於回歸類算法,有兩種不同的解讀來看待回歸的結果:是否預測到了較為正確的數值1. RSS 殘差平方和RSS 衡量了預測值和真實值的差異,既是損失函數,也是回歸類模型的評估指標之一。
  • 廣義線性模型學習
    示例:參考文獻:1.1.11. logistic 回歸logistic 回歸,雖然名字裡有 「回歸」 二字,但實際上是解決分類問題的一類線性模型。在某些文獻中,logistic 回歸又被稱作 logit 回歸,maximum-entropy classification(MaxEnt,最大熵分類),或 log-linear classifier(對數線性分類器)。該模型利用函數 logistic function 將單次試驗(single trial)的可能結果輸出為概率。
  • 乾貨 | 對數線性模型之 Logistic 回歸、SoftMax 回歸和最大熵模型
    ,在線性模型的基礎上通過複合函數(sigmoid,softmax,entropy )將其映射到概率區間,使用對數損失構建目標函數。首先以概率的方式解釋了logistic回歸為什麼使用sigmoid函數和對數損失,然後將二分類擴展到多分類,導出sigmoid函數的高維形式softmax函數對應softmax回歸,最後最大熵模型可以看作是softmax回歸的離散型版本,logistic回歸和softmax回歸處理數值型分類問題,最大熵模型對應處理離散型分類問題。
  • 原理+代碼|Python實戰多元線性回歸模型
    現在我們直接構建多元線性回歸模型from statsmodels.formula.api import ols# 小寫的 ols 函數才會自帶截距項,OLS 則不會# 固定格式:因變量 ~ 自變量(+ 號連接)
  • 如何用線性回歸模型做數據分析?
    編輯導語:在日常工作中,很多時候都會用到數據分析的方法,線性回歸模型看起來非常簡單,但實際上它的十分重要;本文作者分享了關於如何用線性回歸模型做數據分析的方法,我們一起來學習一下。一、什麼是線性回歸線性回歸是利用線性的方法,模擬因變量與一個或多個自變量之間的關係;對於模型而言,自變量是輸入值,因變量是模型基於自變量的輸出值,適用於x和y滿足線性關係的數據類型的應用場景。
  • 深度學習模型速成,三分鐘解決經典線性回歸模型(附完整代碼)
    本文將會帶你做完一個深度學習進階項目,讓你熟練掌握線性回歸這一深度學習經典模型,然後在此基礎上,小編將在下篇文章帶你通過此模型實現對股票漲幅的預測。野蠻智能,小白也能看懂的人工智慧。線性回歸乾貨快遞點:線性回歸是什麼?
  • 一般線性模型與廣義線性模型
    簡單線性回歸;如果有兩個或多個定量自變量,模型就是多重線性回歸;如果模型中有兩個自變量,其中研究因素是分類變量,而非研究因素是定量變量,這種模型稱為協方差分析;它與方差分析的不同之處在於多了一個協變量,協變量類似於混雜因素,它不是我們想要分析的,但是又客觀存在,需要校正它的影響才能正確分析研究因素與結果變量的關係
  • spss多元線性回歸模型 - CSDN
    多元線性回歸,主要是研究一個因變量與多個自變量之間的相關關係,跟一元回歸原理差不多,區別在於影響因素(自變量)更多些而已,例如:一元線性回歸方程 為:毫無疑問,多元線性回歸方程應該為:上圖中的 x1,  x2, xp分別代表「自變量」Xp截止,代表有P個自變量
  • R筆記:多重線性回歸(三)_模型評估與診斷
    (1)模型擬合優度評估在模型擬合完畢通過summary()函數可以獲得參數估計表,同時函數也給出了模型的決定係數、校正的決定係數。本例多重線性回歸模型的決定係數R^2=0.2352,即結局變量的總變異中可由回歸模型中解釋變量解釋的部分僅佔23.52%,參見《多重線性回歸(一):模型擬合》。
  • 看不懂Logistic模型?別慌,先來了解它和線性回歸模型的區別!
    作為回歸模型的一種,其實它和簡單線性回歸模型分析有著非常相似的地方,它們的模型方程形式是一致的,右邊都可以寫成b1x+c的方程形式,並且b1和c都是未知的係數參數。但是和多元線性回歸模型的不同之處在於,Logistic回歸模型的因變量不同,這是因為我們將因變量的值做了logit處理變換,而不是直接將該方程的值作為因變量的結果。
  • eviews 線性回歸模型 - CSDN
    分享經典書籍: A Modern Approach to Regression with R.pdf  連結: https://pan.baidu.com/s/14NJt7CrOpUUe2hYyrJn_rg  提取碼: 7fv6  多元線性回歸
  • eviews線性回歸模型 - CSDN
    分享經典書籍: A Modern Approach to Regression with R.pdf  連結: https://pan.baidu.com/s/14NJt7CrOpUUe2hYyrJn_rg  提取碼: 7fv6  多元線性回歸
  • Python 實戰多元線性回歸模型,附帶原理+代碼
    其中多元共線性這個問題將貫穿所有的機器學習模型,所以本文會「將原理知識穿插於代碼段中」,爭取以不一樣的視角來敘述和講解「如何更好的構建和優化多元線性回歸模型」。主要將分為兩個部分:,這裡需要轉換一下,而多元線性回歸模型中類別變量的轉換最常用的方法之一便是將其轉化成虛擬變量。