邏輯回歸是機器學習中經常用到的一種方法,其屬於有監督機器學習,邏輯回歸的名字雖然帶有「回歸」二字,但實際上它卻屬於一種分類方法,本文就介紹一下如何用邏輯回歸進行分類。
首先還是介紹一下邏輯回歸的基本原理。
圖1. 邏輯函數圖形
邏輯回歸之所以叫「邏輯」,是因為其使用了Logistic函數(也稱Sigmoid函數),該函數形式如圖2中式(1)所示,圖形如圖1所示。既然邏輯回歸是分類方法,那麼我們這裡就以最簡單的二分類來說明一下,二分類的輸出標記為 y=0或1,而線性回歸產生的預測值z = ω^Tx+b,我們讓t=z,把z的表達式帶入到式(1)中得到式(2),再做變換就得到式(3)。y是我們要求的正例,1-y則是反例,二者比值則可稱為機率,所以式(3)可以稱作「對數機率」。接下來我們要求解ω和b,用的是極大似然估計法。我們將y視為後驗概率估計p(y=1|x),那麼就可以得到圖3中的式(4)和(5)。接下來令β=(ω;b)和x=(x;1),可得到式(6),由式(6)的得到圖4中(7)、(8)和(9),(9)就是目標函數,對目標函數求解得到最優參數即可。這些推導比較複雜,筆者在這裡僅列出了主要部分,大家如果有興趣,可自行查閱相關資料。
圖2. 邏輯回歸推導公式(1)—(3)
圖3. 邏輯回歸推導公式(4)—(6)
圖4. 邏輯回歸推導公式(7)—(9)
在了解邏輯回歸的基本原理之後,我們再用一個例子來介紹一下邏輯回歸的用法。
本文中我們使用的邏輯回歸模型來自scikit-learn,用到的數據集也同樣來自於scikit-learn,代碼如下。
import matplotlib.pyplot as plt
from sklearn.metrics import classification_report
from sklearn.datasets import make_classification
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
X, y = make_classification(n_samples=100, n_features=2,
n_informative=2, n_redundant=0, n_clusters_per_class=1,
class_sep = 2.0, random_state=15)
fig, ax = plt.subplots(figsize=(8, 6))
plt.scatter(X[:, 0], X[:, 1], marker='o', c=y)
plt.xlabel('Feature 1')
plt.ylabel('Feature 2')
plt.show()圖5. 本例中所用數據點
其結果如圖5所示。這個數據集是我們用make_classification方法生成的,共100個點,一共兩個特徵(維度),所有數據共分為兩個類。從圖中可以看出紫色的點分為一類,黃色的點分為另一類。然後對數據集進行一下劃分,分為訓練集和測試集,代碼如下。X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.30, random_state=30)
在這裡,我們設置測試集的數據個數為30個,隨機狀態random_state為30,這個數字可以隨意設置。接下來我們用邏輯回歸來進行一下訓練和預測,結果用classification_report方法輸出。
model = LogisticRegression() #生成模型
model.fit(X_train, y_train) #輸入訓練數據
y_predict = model.predict(X_test) #輸出預測數據
print(classification_report(y_test, y_predict)) #生成預測結果報告預測結果如圖6所示。從圖6中我們可以看出該模型的accuracy為0.97,因為我們的測試數據共有30個,所以這意味著我們只有1個點預測錯了,說明該模型的分類效果還是非常不錯的。
圖6. 模型結果報告
然後為了讓大家對該模型的分類效果有一個進一步的了解,筆者在這裡再深入研究一下,我們再來看看邏輯回歸模型的分類邊界,即該模型是從哪裡開始進行劃分的,代碼如下。
step = 0.01 # 相當步長,越小點越密集
x_min = X[:, 0].min() -1 #設置mesh的邊界
x_max = X[:, 0].max() + 1
y_min = X[:, 1].min() - 1
y_max = X[:, 1].max() + 1
x_mesh, y_mesh = np.meshgrid(np.arange(x_min, x_max, step), np.arange(y_min, y_max, step))
data_mesh = np.stack([x_mesh.ravel(), y_mesh.ravel()], axis=-1) #把mesh轉換為2列的數據
Z = model.predict(data_mesh)
Z = Z.reshape(x_mesh.shape)
fig, ax = plt.subplots(figsize=(8,6))
plt.pcolormesh(x_mesh, y_mesh, Z, cmap=plt.cm.cool) #畫出mesh的顏色
plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.ocean)
plt.show()這裡代碼有些複雜,解釋一下。我們的設計思路是這樣的,因為本次使用的邏輯回歸模型是一個二分類模型,也就是將結果分為了兩個類,那麼我們把模型中每個類的區域用一種顏色標出,這樣就有兩種顏色。落入每個區域的點就屬於這個區域,也就是這個類。x_mesh, y_mesh = np.meshgrid(np.arange(x_min, x_max, step), np.arange(y_min, y_max, step)) 這行代碼就是得到整個區域(也就是兩個類的區域之和)的點,這個區域比我們用到的數據集的範圍大一些,x_min、x_max、y_min、y_max就是整個區域的邊界。data_mesh = np.stack([x_mesh.ravel(), y_mesh.ravel()], axis=-1) 這行代碼就是把上面整個區域中的點轉換為2列的數據,便於後面預測,Z = model.predict(data_mesh)就是區域每個點的預測值,我們再用plt.pcolormesh和plt.scatter分別畫出區域顏色和數據點的顏色,就能清楚看到那些點在哪個區域中。其結果如圖7所示。
圖7. 用不同顏色來表示不同的劃分區域
從結果中可以看出,有一個綠色的點落入到了錯誤的區域中,說明這個點預測錯了,這和我們前面classification_report得到的結果一致。
邏輯回歸在機器學習中的使用非常廣泛而且效果也不錯,但其也有一些缺點,比如不能解決非線性問題、對多重共線性數據較為敏感、很難處理數據不平衡的問題等。其原理也要比筆者介紹的複雜不少,想要深入了解的讀者可以自行查找相關資料來學習。