Kmeans中的K值確定*

2020-11-29 北京圖靈學院

上篇文章為大家介紹了我們常用的聚類算法Kmenas算法,也為大家整理了一點小案例,今天為大家繼續分享我們Kmenas算法,對Kmenas算法來說,如何確定簇數K值是一個至關重要的問題,為了解決這個問題,通常會選用探索法,即給定不同的k值下,對比某些評估指標的變動情況,進而選擇一個比較合理的k值,在這我們上篇文章給大家推薦了三種方法(簇內離差平方和拐點法,輪廓係數法和間隔統計量法),接下來我們分別看看這三種方法是如何實現的:

Kmenas算法基礎公式:

拐點法

簇內離差平方和拐點法的思想很簡單,就是在不同的k值下計算簇內離差平方和,然後通過可視化的方法找到"拐點"所對應的k值,J為Kmeans算法的目標函數,隨著簇數量的增加,簇中的樣本量會越來越少,進而導致目標函數J的值也會越來越小,通過可視化方法,重點關注的是斜率的變化,當斜率由大突然變小時,並且之後的斜率變化緩慢,則認為突然變化的點就是尋找的目標點,因為繼續隨著簇數K的增加,聚類效果不再有大的變化。

接下來我們就驗證這個方法,隨機生成三組二元正態分布數據,首先基於該數據繪製散點圖,如下代碼:

import pandas as pd

import numpy as np

import matplotlib.pyplot as plt

from sklearn.cluster import KMeans

#隨機生成三組二元正態分布隨機數

np.random.seed(1234)

mean1 = [0.5,0.5]

cov1 = [[0.3,0],[0,0.3]]

x1,y1 = np.random.multivariate_normal(mean1,cov1,1000).T

mean2 = [0,8]

cov2 = [[0.3,0],[0,0.3]]

x2,y2 = np.random.multivariate_normal(mean2,cov2,1000).T

mean3 = [8,4]

cov3 = [[1.5,0],[0,1]]

x3,y3 = np.random.multivariate_normal(mean3,cov3,1000).T

#繪製三組數據的散點圖

plt.scatter(x1,y1)

plt.scatter(x2,y2)

plt.scatter(x3,y3)

plt.show()

如上圖,虛擬出來的數據呈現出三個簇,接下來基於這個虛擬數據,使用拐點法繪製簇的個數與總的簇內離差平方和之間的折線圖,確定最終的k值,代碼如下:

#構造自定義函數,用於繪製不同的k值和對應總的簇內離差平方和的折線圖

def k_SSE(X,clusters):

#選擇連續的K種不同的值

K= range(1,clusters+1)

#構建空列表用於存儲總的簇內離差平方和

TSSE= []

for k in K:

#用於存儲各個簇內離差平方和

SSE = []

kmeans = KMeans(n_clusters=k)

kmeans.fit(X)

#返回簇標籤

labels = kmeans.labels_

#返回簇中心

centers = kmeans.cluster_centers_

#計算各簇樣本的離差平方和,並保存到列表中

for label in set(labels):

SSE.append(np.sum((X.loc[labels==label,]-centers[label,:])**2))

#計算總的簇內離差平方和

TSSE.append(np.sum(SSE))

#中文和負號正常顯示

plt.rcParams['font.sans-serif'] = 'SimHei'

plt.rcParams['axes.unicode_minus'] =False

#設置繪畫風格

plt.style.use('ggplot')

#繪製K的個數與TSSE的關係

plt.plot(K,TSSE,'b*-')

plt.xlabel('簇的個數')

plt.ylabel('簇內離差平方和之和')

#

plt.show()

#將三組數據集匯總到數據框中

X = pd.DataFrame(np.concatenate([np.array([x1,y1]),np.array([x2,y2]),np.array([x3,y3])],axis=1).T)

k_SSE(X,15)

如上圖,當簇的個數為3時,形成了一個明顯的"拐點",因為K值從1到3時,折線的斜率都比較大,但是k值為4時斜率突然就降低了很多,並且之後的簇對應的斜率都變動很小,所以,合理的k值應該為3,與虛擬數據集的三個簇相吻合。

輪廓係數法

啥都不說先上公式,該方法綜合考慮了簇的密集性和分散性兩個信息,如果數據集被分割為理想的K個簇,那麼對應的簇內樣本會很密集,而簇間樣本會狠分散。上述公式中a(i)體現了簇內的秘籍性,代表樣本i與同簇內其他樣本點距離的平均值;b(i)反映了簇間的分散性,他的計算過程是樣本i與其他非同簇樣本點距離的平均值,然後從平均值中挑選出最小值。

通過公式可知當S(i)接近於-1時,說明樣本i分配的不合理,需要將其分配到其他簇中;當S(i)近似為0時,說明樣本i落在了模糊地帶,即簇的邊界處,當S(i)近似為1時,說明樣本i的分配是合理的。

接下來我們就看看如何用輪廓係數解決我們的k取值問題,由於輪廓係數計算較複雜,所以我們直接使用sklearn中的metrics中的silhouette_score方法,需要注意的是該方法需要接受的聚類簇數必須大於等於2.代碼如下:

from sklearn import metrics

#構造自定義函數

def k_silhouette(X,clusters):

K = range(2,clusters+1)

#構建空列表,用於存儲不同簇數下的輪廓係數

S = []

for k in K:

kmeans = KMeans(n_clusters=k)

kmeans.fit(X)

labels = kmeans.labels_

#調用子模塊metrics中的silhouette_score函數,計算輪廓係數

S.append(metrics.silhouette_score(X,labels,metric='euclidean'))

#設置繪圖風格

plt.rcParams['font.sans-serif'] = 'SimHei'

plt.rcParams['axes.unicode_minus'] =False

#設置繪畫風格

plt.style.use('ggplot')

#繪製K的個數與輪廓係數的關係

plt.plot(K,S,'b*-')

plt.xlabel('簇的個數')

plt.ylabel('輪廓係數')

plt.show()

k_silhouette(X,15)

如上圖,利用之前構造的虛擬數據,繪製了不同K值下對應的輪廓係數圖,當k取值為3時輪廓係數最大,且比較接近於1,說明應該把虛擬數據聚為3類比較合理。

間隔統計法

2000年Hastie等人提出了間隔統計量法(Gap Statistic方法),該方法可以適用於任何聚類算法,公式如下:

接下來我們構造自定義函數,繪製不同K值對應的間隙統計量折線圖:

#自定義函數,計算簇內任意倆樣本之間的歐式距離Dk

def short_pair_wise_D(each_cluster):

mu = each_cluster.mean(axis=0)

Dk = sum(sum((each_cluster-mu)**2*each_cluster.shape[0]))

return Dk

#自定義函數,計算簇內的Wk值

def compute_Wk(data, classfication_result):

Wk = 0

label_set = set(classfication_result)

for label in label_set:

each_cluster = data[classfication_result == label, :]

Wk = Wk + short_pair_wise_D(each_cluster)/(2.0*each_cluster.shape[0])

return Wk

# 計算GAP統計量

def gap_statistic(X, B=10, K=range(1,11), N_init = 10):

# 將輸入數據集轉換為數組

X = np.array(X)

# 生成B組參照數據

shape = X.shape

tops = X.max(axis=0)

bots = X.min(axis=0)

dists = np.matrix(np.diag(tops-bots))

rands = np.random.random_sample(size=(B,shape[0],shape[1]))

for i in range(B):

rands[i,:,:] = rands[i,:,:]*dists+bots

# 自定義0元素的數組,用於存儲gaps、Wks和Wkbs

gaps = np.zeros(len(K))

Wks = np.zeros(len(K))

Wkbs = np.zeros((len(K),B))

# 循環不同的k值,

for idxk, k in enumerate(K):

k_means = KMeans(n_clusters=k)

k_means.fit(X)

classfication_result = k_means.labels_

# 將所有簇內的Wk存儲起來

Wks[idxk] = compute_Wk(X,classfication_result)

# 通過循環,計算每一個參照數據集下的各簇Wk值

for i in range(B):

Xb = rands[i,:,:]

k_means.fit(Xb)

classfication_result_b = k_means.labels_

Wkbs[idxk,i] = compute_Wk(Xb,classfication_result_b)

# 計算gaps、sd_ks、sk和gapDiff

gaps = (np.log(Wkbs)).mean(axis = 1) - np.log(Wks)

sd_ks = np.std(np.log(Wkbs), axis=1)

sk = sd_ks*np.sqrt(1+1.0/B)

# 用於判別最佳k的標準,當gapDiff首次為正時,對應的k即為目標值

gapDiff = gaps[:-1] - gaps[1:] + sk[1:]

#設置繪圖風格

plt.rcParams['font.sans-serif'] = 'SimHei'

plt.rcParams['axes.unicode_minus'] =False

#設置繪畫風格

plt.style.use('ggplot')

# 繪製gapDiff的條形圖

plt.bar(np.arange(len(gapDiff))+1, gapDiff, color = 'steelblue')

plt.xlabel('簇的個數')

plt.ylabel('k的選擇標準')

plt.show()

# 自定義函數的調用

gap_statistic(X)

如上圖,x軸代表了不同的簇數k,y軸代表k值選擇的判斷指標gapDiff,gapDiff首次出現正值時對應的k為3,所以對於虛擬的數據集來說,將其劃分為三個簇是比較合理的。

以上就是Kmeans算法中中簇數k的確定方法,嗯,是有點小小的難度

相關焦點

  • 機器學習之基於sklearn的KMeans聚類
    聚類算法,無監督學習的代表算法,又叫做「無監督分類」即在訓練的時候只需要特徵矩陣,不需要真實值標籤可以有效地幫助我們探索數據的自然分布一、KMeans算法的運行過程運行的流程如下:自動聚類時的質心點的每步驟變化如下:下圖中紅色
  • 機器學習之分類算法K-Means介紹與代碼分析(篇四)
    維基百科,自由的百科全書中提到K-平均算法(英文:k-means clustering)源於信號處理中的一種向量量化方法,現在則更多地作為一種聚類分析方法流行於數據挖掘領域。k-平均聚類的目的是:把n個點(可以是樣本的一次觀察或一個實例)劃分到k個聚類中,使得每個點都屬於離他最近的均值(此即聚類中心)對應的聚類,以之作為聚類的標準。
  • python之kmeans數據聚類算法
    ,作為新的質心,重複上一步,直到所有的簇不再改變k是聚類個數,可以根據我們的經驗給數值,也可以通過程序初步預測k設置為多少對聚類最準確。本章通過變化k的個數,計算k取不同值時,最後的誤差多少,誤差越小,則k最準確。二 數據準備對數據進行聚類,要對測試數據進行清洗。一般代碼都是對數值型數據進行計算,所以如果測試數據是漢字或其他類型的信息,我們要對其進行量化。本案例通過鏈家數據進行測試,通過學習,可以學習python機器學習的一般步驟和整個過程。
  • 你需要的最全面的K-means聚類指南
    第一步:選擇簇的數目kK-means的第一步是選擇簇的數目k。第二步:從數據中選擇k個隨機點作為質心接下來,我們為每個簇隨機選擇質心。假設我們想要有2個簇,所以k在這裡等於2。然後我們隨機選擇質心:這裡,紅色和綠色圓圈代表這些簇的質心。
  • 機器學習之確定最佳聚類數目的10種方法
    在聚類分析的時候確定最佳聚類數目是一個很重要的問題,比如kmeans函數就要你提供聚類數目這個參數,總不能兩眼一抹黑亂填一個吧。之前也被這個問題困擾過,看了很多博客,大多泛泛帶過。今天把看到的這麼多方法進行匯總以及代碼實現並儘量弄清每個方法的原理。
  • KNN算法中的K有多重要
    它基於一個非常簡單的想法,數據點的值由它周圍的數據點決定。考慮的數據點數量由k值確定。因此,k值是算法的核心。KNN分類器根據多數表決原則確定數據點的類別。如果k設置為5,則檢查5個最近點的類別。也可以根據多數類進行回歸預測,同樣,KNN回歸取5個最近點的平均值。在本文中,我們將研究k值對於分類任務的重要性。
  • 您知道斷橋鋁窗戶中的K值是什麼嗎?
    說到斷橋鋁窗戶的K值,相信很多消費者還是頭一次聽說,就連不少從事斷橋鋁窗戶的門窗人來說也只是聽過但是具體是什麼東西也說不明白,K值是傳熱學術語,在傳熱學裡,k值也叫傳熱係數,K值主要用來量度穿過玻璃系統的傳熱量,這個數值是一個溫度函數,計算方式是攝氏一度的溫差下每小時穿過一平米玻璃的熱量
  • HPLC色譜方法開發中保留因子k的深度剖析
    本文作者Luffy。
  • K-Means聚類講解:算法和Sklearn的實現(附代碼)
    K-Means聚類是機器學習領域中最強大的聚類算法之一。他的原因比較簡單,但得出的結果也非常準確。聚類是理解數據集的非常重要的方式,因此在本文中,我們將討論什麼是聚類,為什麼需要聚類以及什麼是k-means聚類。什麼是聚類聚類是根據數據的屬性將數據分為兩個或更多組的任務,更確切地說,是基於數據中或多或少明顯的某些模式。
  • 色譜實驗中測量不確定度評價規則理論
    ,不確定度是一個數值範圍,並且是被賦予分散性質,被測量是落入了一個分散區間,在這個區間中含有正確的測得值。B類評定的方法是根據有關的信息或經驗,判斷被測量的可能值區間[-a,+a],假設被測量值的概率分布,根據概率分布和要求的包含概率p估計因子k,則B類標準不確定度uB可由公式得到:uB=a/k式中:a為被測量可能值區間的半寬度。
  • 2020年中考數學專題訓練—反比例函數計算型問題,看懂K值很重要
    近年重慶中考中,反比例函數計算型問題主要是以選擇題的形式出現,難度中等及偏上。從試題與幾何圖形結合來看,主要涉及以下五大類:(1)求圖形面積 (2)求坐標 (3)求線段長 (4)求K值1.解決此類問題的方法及步驟從解題方法來看,此類題目可分為兩類:(1)利用k的幾何意義;(2)設點的坐標,利用幾何圖形(全等三角形、相似三角形、平行四邊形、特殊平行四邊形)性質轉化至所求點的坐標
  • 【流體】| k-ε(epsilon)模型中的K和ε物理意義
    在多尺度湍流模式中,湍流由各種尺度的渦動結構組成,大渦攜帶並傳遞能量,小渦則將能量耗散為內能。 k-ε 湍流模型參數設置在運用兩方程湍流模型時這個k值是怎麼設置的呢?epsilon可以這樣計算嗎? epsilon=Cu*k*k/Vt這些在軟體裡有詳細介紹。陶的書中有類似的處理,假定了進口的湍流雷諾數。fluent幫助裡說,用給出的公式計算就行。
  • 密度泛函理論計算要素-k空間
    這些能帶的能量在k的各個單值區分界處存在有限大小的空隙,稱為能隙。在第一布裡淵區中所有能量本徵態的集合構成了電子的能帶結構。在單電子近似的框架內,周期性勢場中電子運動的宏觀性質都可以根據能帶結構及相應的波函數計算出。
  • 不確定度系列3:測量不確定度在測量結果中的表達
    測量結果應包含測量不確定度,比如校準結果示值誤差需要報告示值誤差的不確定度,檢測結果臨界值的合格判定需要給出不確定度,而不確定度如何表達呢?01—有效位數測量不確定度本來就是一個不確定的量,如果給出太多的位數或者小數位是沒有意義的。不確定度的取位主要考慮修約誤差限在不確定度中的佔比。