數據分析領域中最為人稱道的七種降維方法

2021-01-07 中國IDC圈

近來由於數據記錄和屬性規模的急劇增長,大數據處理平臺和並行數據分析算法也隨之出現。於此同時,這也推動了數據降維處理的應用。實際上,數據量有時過猶不及。有時在數據分析應用中大量的數據反而會產生更壞的性能。

最新的一個例子是採用 2009 KDD Challenge 大數據集來預測客戶流失量。 該數據集維度達到 15000 維。 大多數數據挖掘算法都直接對數據逐列處理,在數據數目一大時,導致算法越來越慢。該項目的最重要的就是在減少數據列數的同時保證丟失的數據信息儘可能少。

以該項目為例,我們開始來探討在當前數據分析領域中最為數據分析人員稱道和接受的數據降維方法。

缺失值比率 (Missing Values Ratio)

該方法的是基於包含太多缺失值的數據列包含有用信息的可能性較少。因此,可以將數據列缺失值大於某個閾值的列去掉。閾值越高,降維方法更為積極,即降維越少。該方法示意圖如下:

低方差濾波 (Low Variance Filter)

與上個方法相似,該方法假設數據列變化非常小的列包含的信息量少。因此,所有的數據列方差小的列被移除。需要注意的一點是:方差與數據範圍相關的,因此在採用該方法前需要對數據做歸一化處理。算法示意圖如下:

高相關濾波 (High Correlation Filter)

高相關濾波認為當兩列數據變化趨勢相似時,它們包含的信息也顯示。這樣,使用相似列中的一列就可以滿足機器學習模型。對於數值列之間的相似性通過計算相關係數來表示,對於名詞類列的相關係數可以通過計算皮爾遜卡方值來表示。相關係數大於某個閾值的兩列只保留一列。同樣要注意的是:相關係數對範圍敏感,所以在計算之前也需要對數據進行歸一化處理。算法示意圖如下:

隨機森林/組合樹 (Random Forests)

組合決策樹通常又被成為隨機森林,它在進行特徵選擇與構建有效的分類器時非常有用。一種常用的降維方法是對目標屬性產生許多巨大的樹,然後根據對每個屬性的統計結果找到信息量最大的特徵子集。例如,我們能夠對一個非常巨大的數據集生成非常層次非常淺的樹,每顆樹只訓練一小部分屬性。如果一個屬性經常成為最佳分裂屬性,那麼它很有可能是需要保留的信息特徵。對隨機森林數據屬性的統計評分會向我們揭示與其它屬性相比,哪個屬性才是預測能力最好的屬性。算法示意圖如下:

主成分分析 (PCA)

主成分分析是一個統計過程,該過程通過正交變換將原始的 n 維數據集變換到一個新的被稱做主成分的數據集中。變換後的結果中,第一個主成分具有最大的方差值,每個後續的成分在與前述主成分正交條件限制下與具有最大方差。降維時僅保存前 m(m < n) 個主成分即可保持最大的數據信息量。需要注意的是主成分變換對正交向量的尺度敏感。數據在變換前需要進行歸一化處理。同樣也需要注意的是,新的主成分並不是由實際系統產生的,因此在進行 PCA 變換後會喪失數據的解釋性。如果說,數據的解釋能力對你的分析來說很重要,那麼 PCA 對你來說可能就不適用了。算法示意圖如下:

反向特徵消除 (Backward Feature Elimination)

在該方法中,所有分類算法先用 n 個特徵進行訓練。每次降維操作,採用 n-1 個特徵對分類器訓練 n 次,得到新的 n 個分類器。將新分類器中錯分率變化最小的分類器所用的 n-1 維特徵作為降維後的特徵集。不斷的對該過程進行迭代,即可得到降維後的結果。第k 次迭代過程中得到的是 n-k 維特徵分類器。通過選擇最大的錯誤容忍率,我們可以得到在選擇分類器上達到指定分類性能最小需要多少個特徵。算法示意圖如下:

前向特徵構造 (Forward Feature Construction)

前向特徵構建是反向特徵消除的反過程。在前向特徵過程中,我們從 1 個特徵開始,每次訓練添加一個讓分類器性能提升最大的特徵。前向特徵構造和反向特徵消除都十分耗時。它們通常用於輸入維數已經相對較低的數據集。算法示意圖如下:

我們選擇 2009 KDD chanllenge 的削數據集來對這些降維技術在降維率、準確度損失率以及計算速度方面進行比較。當然,最後的準確度與損失率也與選擇的數據分析模型有關。因此,最後的降維率與準確度的比較是在三種模型中進行,這三種模型分別是:決策樹,神經網絡與樸素貝葉斯。

通過運行優化循環,最佳循環終止意味著低緯度與高準確率取決於七大降維方法與最佳分類模型。最後的最佳模型的性能通過採用所有特徵進行訓練模型的基準準確度與 ROC 曲線下的面積來進行比較。下面是對所有比較結果的對比。

從上表中的對比可知,數據降維算法不僅僅是能夠提高算法執行的速度,同時也能過提高分析模型的性能。 在對數據集採用:缺失值降維、低方差濾波,高相關濾波或者隨機森林降維時,表中的 AoC 在測試數據集上有小幅度的增長。

確實在大數據時代,數據越多越好似乎已經成為公理。我們再次解釋了當數據數據集寶航過多的數據噪聲時,算法的性能會導致算法的性能達不到預期。移除信息量較少甚至無效信息唯獨可能會幫助我們構建更具擴展性、通用性的數據模型。該數據模型在新數據集上的表現可能會更好。

最近,我們諮詢了 LinkedIn 的一個數據分析小組在數據分析中最為常用的數據降維方法,除了本博客中提到的其中,還包括:隨機投影(Random Projections)、非負矩陣分解(N0n-negative Matrix Factorization),自動編碼(Auto-encoders),卡方檢測與信息增益(Chi-square and information gain), 多維標定(Multidimensional Scaling), 相關性分析(Coorespondence Analysis), 因子分析(Factor Analysis)、聚類(Clustering)以及貝葉斯模型(Bayesian Models)。感謝 Asterios Stergioudis, Raoul Savos 以及 Michael Will 在 LinkedIN 小組中提供意見。

譯後記

本文翻譯自 7 Machine Learning techniques for Dimensionality Reduction 為了方便說明,在原有的基礎上還對照白皮書,增加了每個方法的示意圖,示意圖來源於白皮書,有興趣的可以直接閱讀白皮書。翻譯完未經過仔細校對,如有錯誤望各位讀者雅正。

相關焦點

  • 機器學習數據降維方法:PCA主成分分析
    PCA在機器學習中很常用,是一種無參數的數據降維方法。將特徵向量按對應特徵值大小從上到下按行排列成矩陣,取前k行組成矩陣PY=PX即為降維到k維後的數據1.PCA的推導PCA通過線性變換將原始數據變換為一組各維度線性無關的表示,可用於提取數據的主要特徵分量,常用於高維數據的降維。我們知道PCA是一種數據降維的方法,在降低維度的過程中,我們當然想要保留更多的特徵,PCA就是經過數學推導,保留最多特徵同時降維的方法。
  • 用 PCA 方法進行數據降維
    在進行數據分析時,我們往往會遇到多維數據,多維數據在處理時由於維度較大計算起來非常麻煩,這時我們需要對數據進行降維。而在所有降維方法中,PCA是我們最常用的方法之一,其在使用時可以消除指標間的相互影響,同時也不用考慮數據的分布,而且降維效果非常明顯,所以PCA可以在絕大多數情況下使用。而本文就是用python來解釋一下如何用PCA方法進行降維。
  • 數據分析領域的探索性數據分析究竟是什麼?
    我們經常討論數據分析和Bl科學方面:執行複雜查詢所需的計算和算法。當然,Bl的很大一部分是數學,在一般情況下理解數據需要計劃如何在一端構建分析結構,在另一端解釋結果,在一些人眼中這是一種藝術形式。什麼是探索性數據分析?探索性數據分析(EDA)是數據分析過程的第一步。
  • 自編碼器數據降維實踐
    此前,我介紹過一種基於自動編碼器的降維方法 。然而,在那一段時間裡,我專注於如何使用自動編碼作為預測器,而現在我想把它們看作是一種降維技術。這篇文章的目的是解釋一下自動編碼器是如何工作的。它是從將原始數據壓縮成一個忽略噪聲的短代碼開始的。然後,該算法對該代碼進行解壓縮,以生成儘可能接近原始輸入的圖像。
  • 機器學習之sklearn中的降維算法
    PCA與SVDsklearn中降維算法都被包括在模塊decomposition中,這個模塊本質是一個矩陣分解模塊。在過去的十年中,如果要討論算法進步的先鋒,矩陣分解可以說是獨樹一幟。矩陣分解可以用在降維,深度學習,聚類分析,數據預處理,低緯度特徵學習,推薦系統,大數據分析等領域。
  • 哈工大碩士生用Python實現11種經典數據降維算法,原始碼庫已開放
    而數據降維,也常應用於文本處理、人臉識別、圖片識別、自然語言處理等領域。數據降維原理往往高維空間的數據會出現分布稀疏的情況,所以在降維處理的過程中,我們通常會做一些數據刪減,這些數據包括了冗餘的數據、無效信息、重複表達內容等。
  • 哈工大碩士生用 Python 實現了 11 種經典數據降維算法,原始碼庫已...
    主成分分析(PCA)降維算法PCA 是一種基於從高維空間映射到低維空間的映射方法,也是最基礎的無監督降維算法,其目標是向數據變化最大的方向投影,或者說向重構誤差最小化的方向投影。它由 Karl Pearson 在 1901 年提出,屬於線性降維方法。與 PCA 相關的原理通常被稱為最大方差理論或最小誤差理論。
  • 統計學最常用的「數據分析方法」清單(二)
    設法將原來變量重新組合成一組新的互相無關的幾個綜合變量,同時根據實際需要從中可以取出幾個較少的綜合變量儘可能多地反映原來變量的信息的統計方法叫做主成分分析或稱主分量分析,也是數學上用來降維的一種方法。 2.
  • 降維算法讓腦神經大數據處理變簡單
    隨著神經元記錄技術的發展,科學家能同時監視、記錄腦中數百個神經元的活動,並有望將這一數字成倍提高。但關鍵問題不是為了超越單個神經元,而是從這些神經元集群的記錄中,能得到什麼科學解釋。 對神經元活動的簡單記錄不會自動產生明確的表達,讓科學家理解大腦是怎樣工作的。
  • 常見的大數據分析模型有哪些
    提到數據分析,肯定要提到數據分析模型,在進行數據分析之前,先搭建數據分析模型,根據模型中的內容,具體細分到不同的數據指標進行細化分析,最終得到想要的分析結果或結論。
  • 數據分析不得不知的七種回歸分析技術
    回歸分析技術是一種非常重要的數據分析方法,有著廣泛的應用,能夠解決目標變量為連續的預測分析問題。什麼是回歸分析?回歸分析是一種預測性的建模技術,它研究的是因變量(目標)和自變量(預測器)之間的關係。這種技術通常用於預測分析,時間序列模型以及發現變量之間的因果關係。
  • Rob Knight發NBT:數據降維新方法助力腸道菌群研究
    Nature子刊:Rob Knight團隊發表微生物組數據降維新方法Nature Biotechnology——[36.558]① 探索菌群數據的常用降維方法,如主坐標分析,但不能實現基於菌群動態對表型進行聚類;② 成分張量因子分解(CTF)新方法可以對重複測量的數據進行無監督的降維,從而生成傳統的β多樣性分析以及差異特徵豐度評估;③ CTF假設數據具有潛在的低等級結構,其中只有少數表型因素解釋了大部分方差;④ 它充分利用重複的測量,同時考慮到微生物組測序數據集的高維,稀疏性和組成性;⑤ 可用於現有數據集的重新分析以及未來微生物群落的研究。
  • 大數據分析模型有哪幾種類型
    數據降維也稱為數據歸約或數據約減。它的目的就是為了減少數據計算和建模中涉及的維數。有兩種數據降維思想:一種是基於特徵選擇的降維,另一種是基於維度變換的降維。   2、回歸   回歸是一種數據分析方法,它是研究變量X對因變量Y的數據分析。我們了解的最簡答的回歸模型就是一元線性回歸(只包含一個自變量和因變量,並且晾在這的關係可以用一條直線表示)。
  • 七種回歸分析方法,個個經典
    回歸分析是建模和分析數據的重要工具。在這裡,我們使用曲線/線來擬合這些數據點,在這種方式下,從曲線或線到數據點的距離差異最小。我會在接下來的部分詳細解釋這一點。但在你開始之前,先了解如下最常用的回歸方法: 1.Linear Regression線性回歸 它是最為人熟知的建模技術之一。線性回歸通常是人們在學習預測模型時首選的技術之一。在這種技術中,因變量是連續的,自變量可以是連續的也可以是離散的,回歸線的性質是線性的。
  • 陳陟原:數據降維與可視化| AI 研習社第 53 期猿桌會
    數據降維的基本原理是將樣本點從輸入空間通過線性或非線性變換映射到一個低維空間,從而獲得一個關於原數據集緊緻的低維表示。它一方面可以解決「維數災難」,緩解「信息豐富、知識貧乏」現狀,降低複雜度;另一方面可以更好地認識和理解數據。 截止到目前,數據降維的方法很多。
  • 『統計學』最常用的數據分析方法都在這了!Part.2
    設法將原來變量重新組合成一組新的互相無關的幾個綜合變量,同時根據實際需要從中可以取出幾個較少的綜合變量儘可能多地反映原來變量的信息的統計方法叫做主成分分析或稱主分量分析,也是數學上用來降維的一種方法。2.
  • 機器學習:特徵選擇和降維實例
    根據維基百科,「特徵選擇是選擇用於模型構建的相關特徵的子集的過程」,或者換句話說,選擇最重要的特徵。在正常情況下,領域知識起著重要作用,我們可以選擇我們認為最重要的特徵。例如,在預測房價時,臥室和面積通常被認為是重要的。
  • 在數據科學領域中,你需要多少數學知識?
    其中最常用的用於描述和預測分析的一些包有:Ggplot2MatplotlibSeabornScikit-learnCaretTensorFlowPyTorchKeras">多虧了這些包,任何人都可以建立起一個模型或者實現數據可視化。然而, 堅實的數學基礎對於修改你的模型讓你的模型性能更好更加可靠來說是十分必要的。
  • 數據分析的幾種常用方法概覽(之二)
    數據分析常用方法概覽(之二)上一篇,我們了解了數據分析時常用的對比分析法、分組分析法、結構分析法、交叉分析法、漏鬥圖分析法、矩陣分析法、綜合評價分析法等八種分析方法,今天我們繼續了解下上文提到的另外八種常見數據分析方法。
  • 數據分析學習:入數據科學大坑,我需要什麼樣的數學水平?
    所以,本文作者闡釋了數據科學和機器學習為何離不開數學,並提供了統計學與概率論、多變量微積分、線性代數以及優化方法四個數學分支中需要熟悉的一些數學概念。本文的作者是物理學家、數據科學教育者和作家 Benjamin Obi Tayo 博士,他的研究興趣在於數據科學、機器學習、AI、Python 和 R 語言、預測分析、材料科學和生物物理學。