原理+代碼|Python基於主成分分析的客戶信貸評級實戰

2020-12-08 CDA數據分析師

文章來源: 早起Python

作者:蘿蔔

本文是Python商業數據挖掘實戰的第5篇

1 - 基於不平衡數據的反欺詐模型實戰2 - Apriori算法實現智能推薦3 - 隨機森林預測寬帶客戶離網4 - 多元線性回歸模型實戰5 - PCA實現客戶信貸5C評級

前言

大樣本的數據集固然提供了豐富的信息,但也在一定程度上增加了問題的複雜性。如果我們分別對每個指標進行分析,往往得到的結論是孤立的,並不能完全利用數據蘊含的信息。但是盲目的減少我們分析的指標,又會損失很多有用的信息。所以我們需要找到一種合適的方法,一方面可以減少分析指標,另一方面儘量減少原指標信息的損失

變量壓縮的方法非常多,但百法不離其中,其實最根本的都是「主成分分析」(Primary Component Analysis,下簡稱PCA)。能夠理解 PCA 的基本原理並將代碼用於實際的業務案例是本文的目標,本文將詳細介紹如何利用Python實現基於主成分分析的5c信用評級,主要分為兩個部分:

詳細原理介紹Python代碼實戰引入

在正式開始原理趣析前,我們先從兩個生活場景入手,藉以更好的理解需要進行變量壓縮的原因。

場景1:

上司希望從事數據分析崗位的你僅用兩個短句就概括出以下數據集所反映出的經濟現象

用幾個長句都不一定能夠很好的描述數據集的價值,更何況高度凝練的兩個短句,短短九個指標就已經十分讓人頭疼了,如果表格再寬一些呢,比如有二三十個變量?

場景2

大學生講究德智體美勞全面發展,學校打算從某學院挑選一兩名學生外派進修數據分析,需要綜合全面的考量學生素質。部分候選學生的個人情況如下:

首先還是與場景1類似的問題,這些指標只是冰山一角,還沒算上學生們其他領域的成績,如果說在場景1中還可以以犧牲全面性來刪除一些我們覺得關係不大的變量,比如我們猜測老闆只會關注GDP與人均GDP這兩個指標,那麼場景2的背景便已經清晰地說明了需要綜合地考慮變量,不能有生硬的去掉「體育」之類的操作。

信息壓縮

如果把信息壓縮這四個字拆成信息和壓縮這兩部分來看的話,便會呈現如下值得探究的問題:

「信息壓縮中的信息指什麼?」

其實各種數據、變量都可被稱為信息,而統計學家們常把方差當作信息。其實在做描述性統計分析的時候,只要能夠表現我們數據的變異情況的統計量都可以被稱作信息,如方差,極差等,只不過是極差會更好計算。以方差為例,方差變化越大,數據分布越分散,涵蓋的信息就越多。

「什麼樣的信息/變量才能被壓縮?」

只有相關性強的變量才能被壓縮。如場景2的數學建模和科技節活動,都是學生們理科思維的體現方式,所以可以考慮把這兩者合併成一個新的叫 「 理科思維 」 的變量,這樣便可以不用兩個變量都要費筆墨描述,關鍵是 「 理科思維 」 這個新的變量裡面數學建模和科技節這兩個舊變量的各自的佔比是多少。(因為這裡並沒有因變量,所以這兩個舊變量的權重係數無法簡單的使用多元線性回歸來完成)如果變量間的關係幾乎是獨立的卻依然強制壓縮(比如體育和演講),則會大大加劇信息的缺失程度,這也是為什麼 「 壓縮 」 其實帶有一絲迫不得已的意味,都是以儘可能損失最少的信息為前提。主成分分析是只能針對連續變量來進行壓縮,分類變量則不行。因為分類變量之間可以說是完全獨立的,並沒有正負兩種相關性一說,如性別男和女之間就完全是獨立的。如果一定也要將分類變量壓縮的話,通常會對進行WOE轉換(後續推文會提及),之後就可以愉快的進行壓縮了。所以分類變量是沒辦法進行單獨壓縮的,因為沒有對應的算法。有些人可能會直接對分類變量間進行卡方檢驗,然後把 p 值大的刪去一些,這個其實應該被劃分為手工的範疇,並不屬於算法。「有哪些壓縮的方法?」

總的來說降維有兩種方法,一種是特徵消除,另一種是特徵提取

特徵消除:如上提到的採用卡方檢驗這樣的非算法,又或者直接拍腦袋決策需要刪掉哪些變量,但這可能會使我們丟失這些特徵中的很多信息。特徵提取:通過組合現有特徵來創建新變量,可以儘量保存特徵中存在的信息。PCA就是一種常見的特徵提取方法,它會將關係緊密的變量們用儘可能少的新創建的變量代替,使這些新變量是兩兩不相關的。這就實現用較少的綜合指標分別代表存在於各個變量中的各類信息。所以多元變量壓縮思路的基礎其實是相關分析。

「壓縮後的信息與原來的有什麼不同?」

我們需要明確的是,無論是主成分還是後續推文的稀疏主成分分析,都有一個問題:他們得到的主成分均沒有什麼業務含義,如果希望得到的壓縮後的變量是有意義的,則可以考慮變量聚類。

壓縮過程

下圖為兩個正態分布的變量間可能存在的三種關係的示意圖,去正態分布和相關係數為 0.9 是為了從比較理想化的角度來解釋變量壓縮的步驟。

可以看到,若量間的關係是較強的正/負相關,用鉛筆把散點圖的範圍圈起來的話呈現的都是一個較扁的橢圓;反之,完全獨立的兩個變量的分布更像是一個肥胖的圓形。關於壓縮過程我們依舊對以下幾個常見的問題進行解釋。

「如何通過散點圖理解信息壓縮?」

直接看散點圖只能判斷出是否值得壓縮,畢竟只有變量間具有一定的相關性才值得壓縮。接下來將涉及到 PCA 中很重要的一個知識點:坐標軸旋轉

「旋轉坐標軸的作用?」

旋轉後的坐標軸與原坐標軸一樣,都是正交(垂直)的。這樣的旋轉方式可以使兩個相關的變量的信息在坐標軸上得到最充分的體現(如果以極差作為信息,則點在 X1 的投影範圍最長)。之後便可從短軸方向來壓縮,當這個橢圓被壓扁到一定程度時,短軸上的信息就可以忽略不計,便達到了信息壓縮的目的。

「如果有三個變量該如何壓縮?」

三維的也是如此,只不過是由橢圓變成橢球(三個變量都相關)。步驟還是一樣,找到最長軸後,在軸上做切面,切面一旦有了,便又回歸到了二維的情況。這時可以找到次長軸和最短軸,這就可以依次的提取,當我們認為最短軸可以忽略不計的時候,就又起到了信息壓縮的作用。

要注意的是如果呈球形分布,這說明變量間沒有相關關係,沒有必要做主成分分析,也不能做變量的壓縮。

建模分析

前面已經說到,PCA後所得到的壓縮的主成分並沒有什麼意義,比如5個變量壓縮成2個主成分P1和P2。

這兩個主成分中的組成等式為:

其中,等式右邊的係數正負與否並沒有什麼意義,通常看絕對值即可。第一個主成分 P1中受五個變量的影響程度無明顯差別,權重都在0.42 ~ 0.47間 主成分P2受第一個變量的影響最大,權重係數為0.83,受第三個變量影響最小,權重為0.14

那麼如何知道應該壓縮成幾個主成分?PCA 的功能是壓縮信息,壓縮後的每個主成分都能夠解釋一部分信息的變異程度(統計學家喜歡用方差表示信息的變異程度),所以,只需要滿足解釋信息的程度達到一定的值即可。

計算每個成份因子將不同成分因子所能解釋的變異百分比相加 3. 得到的值被稱之為累積變異百分比 4. PCA 過程中,我們將選擇能使得這個值最接近於 1 的維度個數

明顯可以看出隨著成分數目的增加,累積變異百分比逐漸增加。不建議使得累積百分比等於1,這將會導致有些主成分帶來冗餘信息,通常等於 0.85 就可以了。當然我們也可以選擇兩個主成分,因為當我們增加第三個主成分因子時,會發現增加它對於累積變異的百分比沒有太大的影響。

Python實戰

在正式開始 Python 代碼實戰前,簡要了解主成分分析的運用場景是非常有必要的

綜合打分:這種情況在日常中經常遇到,比如高考成績的加總、員工績效的總和排名。這類情況要求只出一個綜合打分,因此主成分分析比較適合。相對於講單項成績簡單加總的方法,主成分分析會賦予區分度高的單項成績以更高的權重,分值更合理。不過當主成分分析不支持只取一個主成分時,就不能使用該方法了。數據描述:描述產品情況,比如著名的波士頓矩陣,子公司業務發展狀況,區域投資潛力等,需要將多變量壓縮到少數幾個主成分進行描述,如果壓縮到兩個主成分是最理想的。這類分析一般做主成分分析是不充分的,做到因子分析更好。為聚類或回歸等分析提供變量壓縮:消除數據分析中的共線性問題,消除共線性常用的有三種方法,分別是:同類變量中保留一個最有代表性的;保留主成分或因子;從業務理解上進行變量修改。案例背景:某金融服務公司為了了解貸款客戶的信用程度,評價客戶的信用等級,採用信用評級常用的5C(品質 Character,能力 Capacity,資本 Capital,抵押 Collateral,條件 Condition)方法, 說明客戶違約的可能性。

本次實戰將圍繞綜合打分,即只選出一個主成分的情況來實現客戶信用評級。

數據探索

首先導入相關包並進行探索性分析

首先導入相關包並進行探索性分析

import pandas as pd

import numpy as np

import matplotlib.pyplot as plt

plt.style.use('seaborn-whitegrid')

plt.rc('font', **{'family': 'Microsoft YaHei, SimHei'})

# 設置中文字體的支持

df = pd.read_csv('loan_apply.csv')

df

參數解釋:

品格:指客戶的名譽;能力:指客戶的償還能力;資本:指客戶的財務實力和財務狀況;擔保:指對申請貸款項擔保的覆蓋程度;環境:指外部經濟政策環境對客戶的影響進行主成分分析前,一定要對數據進行相關分析,因為相關性較低或獨立的變量不可做PCA

# 求解相關係數矩陣,證明做主成分分析的必要性

## 丟棄無用的 ID 列

data = df.drop(columns='ID')

import seaborn as sns

sns.heatmap(data.corr(), annot=True)

# annot=True: 顯示相關係數矩陣的具體數值

發現變量間相關性都比較高,大於0.7,有做PCA的必要

數據標準化

PCA 建模前,數據需要進行標準化,通常使用中心標準化,也就是將變量都轉化成Z分數的形式,即偏離平均數的標準差個數,這樣才能防止量綱問題給建模帶來的影響。如身高-體重的量綱1.78-59與178-60在散點圖上的顯示會有比較大的區別!

# PCA 通常用中心標準化,也就是都轉化成 Z 分數的形式

from sklearn.preprocessing import scale

data = scale(data)

PCA建模

使用sklearn進行PCA分析,注意:

第一次的n_components參數最好設置得大一些(保留的主成份)觀察explained_variance_ratio_取值變化,即每個主成分能夠解釋原始數據變異的百分比from sklearn.decomposition import PCA

pca = PCA(n_components=5) # 直接與變量個數相同的主成分

pca.fit(data)

結果分析

累計解釋變異程度

明顯看出第一個主成分就已經能夠解釋84%的信息變異程度了!

重新建模

重新選擇主成分個數進行建模

主成分中各變量的權重分析

第一個主成分(解釋了84% 的變異的那個)與5個自變量的係數關係可以理解成:「第一成分 = 0.413 * 品格 + 0.47 * 能力 + 0.46 * 資本 + 0.45 * 擔保 + 0.42 * 環境」。所以說生成的主成分除降維意義顯著外,並沒有什麼其他的意義,並不好解釋。

做出決策

這裡的new_data是上文代碼pca.fit_transform(data)生成的降維後的數據,接著按照綜合打分從高到低進行排序

根據結果我們可以發現貸款給7號客戶風險最低,給9號客戶風險最高!

小結

本文通過生活實例引出為什麼要進行信息的壓縮與提煉,講解了主成分分析 PCA 的原理與使用時的注意事項,並使用Python示範了完整的建模流程,給讀者提供了參考和借鑑。另外,作為數據分析師必會的PCA在圖像處理如人臉識別和手寫數字識別等機器學習領域也有很廣的運用,值得好好琢磨並熟練掌握。

相關焦點

  • 基於python的大數據分析-pandas數據讀取(代碼實戰)
    書籍推薦《大話軟體測試》出版啦,內容包括但不限於性能、自動化、接口、安全、移動APP非功能測試、抓包、loadrunner、jmeter、soapui、Appium、python
  • python金融風控評分卡模型和數據分析
    (原創課程,版權所有,項目合作QQ:231469242,微信公眾號:pythonEducation) 課程介紹python金融風控評分卡模型和數據分析微專業課包含《python信用評分卡建模(附代碼)》,《python風控建模實戰lendingClub》,《金融現金貸用戶數據分析和畫像》三套課程系列
  • 運用sklearn進行線性判別分析(LDA)代碼實現
    基於sklearn的線性判別分析(LDA)代碼實現一、前言及回顧本文記錄使用sklearn庫實現有監督的數據降維技術——線性判別分析(LDA)。在上一篇LDA線性判別分析原理及python應用(葡萄酒案例分析),我們通過詳細的步驟理解LDA內部邏輯實現原理,能夠更好地掌握線性判別分析的內部機制。
  • R語言實戰(14)——主成分分析和因子分析
    基本圖形R語言實戰(7)——基本統計分析R語言實戰(8)——回歸R語言實戰(9)——方差分析R語言實戰(10)——功效分析R語言實戰(11)——中級繪圖R語言實戰(12)——重抽樣與自助法R語言實戰(13)——廣義線性模型本期是我們推出
  • 超適合Python小白的乾貨,Python數據分析50個實戰項目
    ——人力資源分析9.大眾點評評論文本挖掘10.手機微博榜單數據爬蟲與分析11.貓眼電影爬蟲及分析12.漫威電影宇宙英雄綜合實力對比分析13.20 秒看懂中國大學 10 年排行榜變化14.航空公司客戶價值分析15.電子商務網站用戶行為分析及服務推薦16.關於地震的爬蟲數據分析實戰
  • PCA主成分分析實戰和可視化 | 附R代碼和測試數據
    一文看懂PCA主成分分析中介紹了PCA分析的原理和分析的意義(基本簡介如下,更多見博客),今天就用數據來實際操練一下。
  • 100天搞定機器學習|Day59 主成分分析(PCA)原理及使用詳解
    PCA原理主成分分析法(Principal Component Analysis)是一種基於變量協方差矩陣對數據進行壓縮降維、去噪的有效方法,它藉助正交變換將一組可能存在相關性的變量轉換為一組線性不相關的變量,轉換後的這組變量叫主成分(PC),主成分是舊特徵的線性組合。
  • 聚類分析、判別分析、主成分分析、因子分析的區別與聯繫
    提取主因子的方法不同:因子分析抽取主因子不僅有主成分法,還有極大似然法,主軸因子法,基於這些方法得到的結果也不同;主成分只能用主成分法抽取。5. 主成分與因子的變化:當給定的協方差矩陣或者相關矩陣的特徵值唯一時,主成分一般是固定的;而因子分析中因子不是固定的,可以旋轉得到不同的因子。6.
  • 如何快速分析樣本之間的相關性(主成分分析):Clustvis
    首先給大家介紹一下主成分分析(PCA)的定義,PCA是一種通過正交變換將一組可能存在相關性的變量轉換為不相關的變量的統計方法,這些轉換後的變量就被稱為主成分(來自維基百科)。而PCA的主要作用包括但不限於:方便數據可視化、數據降維等等。
  • 一文看懂PCA主成分分析
    主成分分析簡介主成分分析 (PCA, principal component analysis)是一種數學降維方法, 利用正交變換 (orthogonal
  • 一步步教你輕鬆學主成分分析PCA降維算法
    主成分分析(英語:Principal components analysis,PCA)是一種分析、簡化數據集的技術。主成分分析經常用於減少數據集的維數,同時保持數據集中的對方差貢獻最大的特徵。這是通過保留低階主成分,忽略高階主成分做到的。這樣低階成分往往能夠保留住數據的最重要方面。但是,這也不是一定的,要視具體應用而定。由於主成分分析依賴所給數據,所以數據的準確性對分析結果影響很大。
  • 基於R語言的主成分和因子分析
    主成分分析主成分分析,是一種降維的分析方法,其考察多個變量間相關性的一種多元統計方法,研究如何通過少數幾個主成分來揭示多個變量間的內部結構
  • 主成分分析(PCA)原理精講
    故我們接下來學習降維度、可視化的主成分分析(Principal Component Analysis,PCA)。1.何時使用PCA假設我們有如下的數據:有6小鼠的4個基因的表達數據,我們想要探索基於這4個基因的表達數據是否能區分小鼠間的差異。
  • Python視頻教程網課編程零基礎入門數據分析網絡爬蟲全套Python...
    本課程為python教程大合集,包含python所有就業方向,每套課程均來自市面上主流培訓機構的原版教程,價值都在數百元以上 每套課程均包含:視頻課程+課件+原始碼 重要:建議根據自己工作方向和需求,重點選擇2到3套課程學精,吃透,然後在工作 重要:零基礎小白建議先選擇零基礎全能篇的一套課程學精
  • 原理+代碼|深入淺出Python隨機森林預測實戰
    能夠理解基本原理並將代碼用於實際的業務案例是本文的目標,本文將詳細介紹如何利用Python實現集成學習中隨機森林這個經典的方法來預測寬帶客戶的流失,主要將分為兩個部分:本文的主角是隨機森林,所以我們將以隨機森林所屬的分支 —— 裝袋法 入手,深入淺出該集成學習方法的原理步驟
  • Python 實戰多元線性回歸模型,附帶原理+代碼
    來源 | 早起Python( ID:zaoqi-python )「多元線性回歸模型」非常常見,是大多數人入門機器學習的第一個案例,儘管如此,裡面還是有許多值得學習和注意的地方。其中多元共線性這個問題將貫穿所有的機器學習模型,所以本文會「將原理知識穿插於代碼段中」,爭取以不一樣的視角來敘述和講解「如何更好的構建和優化多元線性回歸模型」。主要將分為兩個部分:
  • 主成分分析(PCA)實用指南(R&Python)
    今天我們聊聊基礎知識,主要介紹一種化繁為簡的神奇方法——主成分分析。注意,理解本文需要具備一定統計學基礎。有時候,如果數據集裡有太多變量,你會怎麼辦?以下是每一位分析師都可能遇到的幾種情況:試想一下,當自己身處這四種境地,你會怎麼做?不要逃,處理這些情況並沒有想像中的那麼困難,一些統計方法,如因子分析、主成分分析就有助於克服它們。
  • python人工智慧項目實戰,PDF+源碼
    稍後您將學習構建基於AI的推薦系統,用於情感分析的行動應用程式以及用於承載客戶服務的強大聊天機器人。您將在網絡安全域中實施AI技術以生成Captchas。之後,您將使用強化學習訓練和建造自動駕駛車輛以進行自駕車。您將使用來自Python生態系統的庫(如TensorFlow,Keras等)來實現機器學習,深度學習和AI的核心方面。
  • 一文看懂主成分分析(文末推薦視頻教程)
    2.8 step6:主成分得分計算和圖示3 實戰一4 實戰二5 進階的主成分分析-psych包6 推薦一個R包factoextra7.主成分分析的生物信息學應用8.主成分分析的其它可視化方法9.其它學習資料1 背景主成分分析法是數據挖掘中常用的一種降維算法,是Pearson在1901年提出的,再後來由hotelling在1933年加以發展提出的一種多變量的統計方法,其最主要的用途在於「降維」,通過析取主成分顯出的最大的個別差異,也可以用來削減回歸分析和聚類分析中變量的數目
  • 30分鐘學會PCA主成分分析
    PCA算法可以幫助分析樣本中分布差異最大的成分(主成分),有助於數據可視化(降低到2維或3維後可以用散點圖可視化),有時候還可以起到降低樣本中的噪聲的作用(丟失的信息有部分是噪聲)。公眾號後臺回復關鍵詞:源碼。