改進遺傳算法的支持向量機特徵選擇解決方案

2021-01-10 電子產品世界

  支持向量機是一種在統計學習理論的基礎上發展而來的機器學習方法[1],通過學習類別之間分界面附近的精確信息,可以自動尋找那些對分類有較好區分能力的支持向量,由此構造出的分類器可以使類與類之間的間隔最大化,因而有較好的泛化性能和較高的分類準確率。由於支持向量機具有小樣本、非線性、高維數、避免局部最小點以及過學習現象等優點,所以被廣泛運用於故障診斷、圖像識別、回歸預測等領域。但是如果缺少了對樣本進行有效地特徵選擇,支持向量機在分類時往往會出現訓練時間過長以及較低的分類準確率,這恰恰是由於支持向量機無法利用混亂的樣本分類信息而引起的,因此特徵選擇是分類問題中的一個重要環節。特徵選擇的任務是從原始的特徵集合中去除對分類無用的冗餘特徵以及那些具有相似分類信息的重複特徵,因而可以有效降低特徵維數,縮短訓練時間,提高分類準確率。

  目前特徵選擇的方法主要有主成分分析法、最大熵原理、粗糙集理論等。然而由於這些方法主要依據繁複的數學理論,在計算過程中可能存在求導和函數連續性等客觀限定條件,在必要時還需要設定用來指導尋優搜索方向的搜索規則。遺傳算法作為一種魯棒性極強的智能識別方法,直接對尋優對象進行操作,不存在特定數學條件的限定,具有極好的全局尋優能力和並行性;而由於遺傳算法採用概率化的尋優方法,所以在自動搜索的過程中可以自主獲取與尋優有關的線索,並在加以學習之後可以自適應地調整搜索方向,不需要確定搜索的規則。因此遺傳算法被廣泛應用在知識發現、組合優化、機器學習、信號處理、自適應控制和人工生命等領域。

基於改進遺傳算法的特徵選擇

  遺傳算法是一種新近發展起來的搜索最優化算法[2~5]。遺傳算法從任意一個的初始生物種群開始,通過隨機的選擇、交叉和變異操作,產生一群擁有更適應自然界的新個體的新一代種群,使得種群的進化趨勢向著最優的方向發展。圖1中所示的是標準的遺傳算法的流程框圖。

  傳統的遺傳算法存在早熟收斂、非全局收斂以及後期收斂速度慢的缺點,為此本文提出了一種能夠在進化過程中自適應調節變異率,以及利用模擬退火防止早熟的改進遺傳算法,同時該算法利用敏感度信息可以有效地控制遺傳操作。圖2是改進遺傳算法的流程框圖。

染色體編碼和適應度函數

  所謂編碼是指將問題的解空間轉換成遺傳算法所能處理的搜索空間。在特徵選擇問題中,常常使用二進位的編碼形式,使得每個二進位就是一個染色體,其位數長度等於特徵的個數。每一位代表一個特徵,每位上的1表示選中該特徵,0則表示不選中。每一代種群都由若干個染色體組成。

  適應度函數是整個遺傳算法中極為重要的部分[6],好的適應度函數能使染色體進化到最優個體,它決定了在整個尋優過程中是否能夠合理地協調好過早收斂和過慢結束這對矛盾。由於本文針對的是支持向量機的特徵選擇問題,所以考慮以分類正確率和未選擇的特徵個數這兩個參數作為函數的自變量,將分類正確率作為主要衡量標準,未選擇的特徵個數為次要標準。由此建立以下的適應度函數:

  式中C為分類正確率,為未選擇的特徵個數,a是調節係數,用來平衡分類正確率和未選擇的特徵個數對適應度函數的影響程度,同時該係數也體現了用最少的特徵得到較大分類正確率的原則,在本文中a取0.00077。由上式可知,分類正確率越高,未選的特徵個數越多,染色體的適應度就越大。

選擇操作

  選擇操作需要按照一定的規則從原有的種群中選擇部分優秀個體用來交叉和變異。選擇原則建立在對個體適應度進行評價的基礎上,目的是避免基因損失,提高全局收斂性和計算效率。本文首先將整個種群中最優的前40%的個體保留下來,以確保有足夠的優良個體進入下一代,對剩下的60%的個體採用輪盤算法進行選擇,這樣做可以彌補保留前40%個體而帶來的局部最優解不易被淘汰的不利影響,有利於保持種群的多樣性。

基於敏感度信息量的交叉、變異操作

  獨立敏感度信息量Q(i)指的是對在所有特徵都被選中時計算所得到的適應度值Allfitness以及只有特徵i未被選中時計算得到的適應度值Wfitness(i)按式(2)進行計算得到的數值。獨立敏感度信息量刻畫了適應度對特徵i是否被選擇的敏感程度。

  互敏感度信息量R(i,j)由(3)式可得,互敏感度信息量體現了特徵i與特徵j之間對適應度的近似影響程度。

  交叉操作的作用是通過交換兩個染色體之間的若干位從而生成含有部分原始優良基因的新個體。由式(3)可知互敏感度信息量可作為不同特徵之間含有相似分類信息的一種度量,所以可以將互敏感度信息量代入式(4)計算出染色體在第位發生交叉的機率b(i),在式(4)中i和j分別代表特徵i和特徵j,是染色體的長度。b(i)是特徵i相對於其他所有特徵在互敏感度信息量上的歸一量,反映了特徵與其餘特徵在相似信息量上的總和。由此對應到染色體上,b(i)就可以認為是染色體的第i位與整個染色體在基因信息上的相關性,b(i)越小則說明相關性越大,第i位與整個染色體所含的基因信息越接近,此位為分裂點的機率越小。由於b(i)是歸一化量,故可採用輪盤算法來選擇一個交叉點。

變異操作是引入新物種的重要手段,可以有效地增加種群個體的多樣性。本文中的變異率Pm採用相鄰兩代之間的最優適應度增幅比作為自變量進行自適應調節,如式(5)所示。當適應度增幅比正向增大時,較小的增幅比可以使變異率維持在中等水平,並且變異率隨著增幅比的增大而緩慢降低,這樣既能夠擁有一定數量的新個體也可以抑制過多不良染色體的產生,保證優秀染色體的進化足夠穩定;而當適應度增幅比反向增大時,由較小增幅比則可以獲得較高的變異率,並且變異率也伴隨增幅比同比緩慢升高,確保有足夠的染色體發生變異,穩定地加快進化速度。

  式中dis指新生種群的最優適應度相對於原種群的最優適應度的增幅比,j與k均是區間(0,1)上的調節係數。文中的j與k分別取0.65和0.055。

  獨立敏感度信息量在一定程度上體現了單個特徵所含有的分類信息量,如果獨立敏感度信息量小,則說明該特徵所含信息大部分對分類沒有幫助,即該基因位發生突變後對整個染色體的優異性影響不大,突變的概率也就相應減小。因此將獨立敏感度信息量歸一化後所得到的q(i)作為特徵i被選為變異點的概率。變異點的具體選擇方法為:針對一個染色體按照染色體的位數進行循環遍歷,在該循環中由變異率Pm判定是否產生變異位。若需要產生變異位,則依據q(i)按照輪盤算法進行選擇。

模擬退火選群

  在每一輪進化完成後都需要決定進入下一輪進化的種群。如果過多地將較優種群作為父代,就會使算法過早收斂或搜索緩慢。文獻[7]中指出模擬退火算法能夠以一定的概率接受劣解從而跳出局部極值區域並最終趨於全局最優解,因此可以將上文提到的最優適應度增幅比作為能量函數,運用模擬退火的Meteopolis準則來選擇待進化的種群。為了使每個種群得到充分地進化,預防最優解的丟失,這裡採用設置退火步長的策略來實現模擬退火選群。該策略具體為:使退火步長對同一種群作為父代的次數進行計數,一旦產生更優種群則退火步長就置零並重新計數。若退火步長累計超過一定的閾值時,就進入模擬退火選群階段。退火步長累計到一定數量意味著原有種群的進化已經停滯,需要用模擬退火算法擺脫這種停滯狀態。如果增幅比大於零,則說明新生種群優於原有種群,這時完全接受新種群進入下一輪進化;否則新生種群劣於原有種群,並以一定的概率p接受較劣的新生種群[8]進入下一輪進化。接受概率p由式(6)和式(7)共同決定,其中dis為增幅比,T(s)指溫度參數,T0和s分別是初始溫度和迭代次數。

  以上兩式的參數要滿足進化對接受概率的要求。即增幅比負增長越大,接受概率降低越迅速,但接受概率隨迭代次數的增加應緩慢下降。這樣做能夠保證在有限的迭代次數內有一個適應度較優的新生種群進入下一輪進化,以達到減少計算量和優選待進化種群的目的。在本文中T0=0.2,A=0.9,m=0.5。

實例的驗證與分析

  UCI資料庫常用來比較各種方法的分類效果,因此可以用其驗證本算法對支持向量機作用後的分類效果[9][10]。文獻[11]採用了UCI資料庫中的German、Ionosphere和Sonar三種數據作為實驗對象,為了便於與文獻[11]中所用的幾種方法進行對比,本文也採用這三種數據進行實驗,並按照文獻中所述的比例將各類數據分成相應的訓練樣本和測試樣本。

  在種群規模為30,交叉率為0.8,起始變異率為0.1的條件下使用支持向量機作為分類器(懲罰參數為13.7,徑向基核函數參數為10.6)對所選數據進行分類,表1中顯示了本文算法與文獻[11]中幾種算法在分類效果上的對比,表2給出了三種數據的最終選擇結果。表1中共出現了四種方法:方法1:使用本文算法;方法2:使用NGA/PCA方法;方法3:使用PCA方法;方法4:使用簡單遺傳算法。

  由於本文算法旨在用最少的特徵個數最大化分類正確率,因此從表1中可以看出本文算法在特徵選擇個數和分類正確率上均比其他三種方法更具優勢。由於NGA/PCA算法是針對簡單遺傳算法和主成分分析法的不足而做的改進,其性能優於簡單遺傳算法和主成分分析法,所以本文算法的分類效果優於NGA/PCA算法這一事實更能說明該算法可以較好地解決支持向量機的特徵選擇問題。

結語

  通過與其他方法的比較,本文算法的分類效果得到了充分的驗證,也說明了該算法具有極好的泛化能力以及在敏感度信息量地指導下遺傳操作的有效性。

  適應度函數的設計至關重要,它直接影響到最終結果的優劣以及算法的收斂性,所以在適應度函數的設計應考慮所解決問題的側重點。

  分類正確率的高低不僅取決於合理的特徵選擇,而且與支持向量機的參數優化有關。只有在合理的特徵選擇和參數優化的前提下,支持向量機分類器才能發揮出最佳的分類效果。

  由於算法能夠較好地解決支持向量機的特徵選擇問題,因此已被應用在基於支持向量機的數字電路板故障診斷當中,並取得了良好的效果。

相關焦點

  • 改進遺傳算法的支持向量機特徵選擇解決方案介紹
    但是如果缺少了對樣本進行有效地特徵選擇,支持向量機在分類時往往會出現訓練時間過長以及較低的分類準確率,這恰恰是由於支持向量機無法利用混亂的樣本分類信息而引起的,因此特徵選擇是分類問題中的一個重要環節。因此遺傳算法被廣泛應用在知識發現、組合優化、機器學習、信號處理、自適應控制和人工生命等領域。  基於改進遺傳算法的特徵選擇  遺傳算法是一種新近發展起來的搜索最優化算法[2~5]。
  • 智能財務風險預警方法—支持向量機
    當今世界上的支持向量機支持向量機的研究部分中,實際和理論方面的研究兩方在快速發展,如今支持向量機已經可以用於生物醫學識別,文本識別,人臉識別,手寫識別等非常多的領域。支持向量機將分類樣本映射為向量空間的特徵向量集合,並在向量空間中構造最優分類超平面,使得在保證分類正確的同時,不同類別的集合與最優分類超平面的間隔最大。
  • 25道題檢測你對支持向量機算法的掌握程度
    相反的是,「支持向量機(SVM)」就像一把鋒利的刀,它比較適用於較小的數據集,但在較小的數據集上面,它可以構建更加強大的模型。相信在你學習機器學習算法解決分類問題的時候,肯定聽說過支持向量機(SVM),在過去的五十年中SVM在隨著時間進行演化,並且在分類之外也得到了應用,比如回歸、離散值分析、排序。
  • 一個簡單的案例帶你了解支持向量機算法(Python代碼)
    相反,「支持向量機」就像一把鋒利的刀—它適用於較小的數據集,但它可以再這些小的數據集上面構建更加強大的模型。現在,我希望你現在已經掌握了隨機森林,樸素貝葉斯算法和模型融合的算法基礎。如果沒有,我希望你先抽出一部分時間來了解一下他們,因為在本文中,我將指導你了解認識機器學習算法中關鍵的高級算法,也就是支持向量機的基礎知識。
  • 從零推導支持向量機 (SVM) | 雷鋒網
    儘管現在深度學習十分流行,了解支持向量機的原理,對想法的形式化、簡化,及一步步使模型更一般化的過程,及其具體實現仍然有其研究價值。另一方面,支持向量機仍有其一席之地。相比深度神經網絡,支持向量機特別擅長於特徵維數多於樣本數的情況,而小樣本學習至今仍是深度學習的一大難題。1.
  • 如何學習SVM(支持向量機)以及改進實現SVM算法程序 - 雷鋒網
    雷鋒網 AI 科技評論按,本文為韋易笑在知乎問題如何學習SVM(支持向量機)以及改進實現SVM算法程序下面的回覆,雷鋒網 AI 科技評論獲其授權轉載。以下為正文:學習 SVM 的最好方法是實現一個 SVM,可講理論的很多,講實現的太少了。
  • 一種改進操作算子的加速收斂遺傳算法
    摘 要:針對基本遺傳算法效率低和易早熟的缺陷,提出了一種改進操作算子的遺傳算法。該算法在種群初始化、選擇、交叉、變異等基本算子的基礎上加以改進,使算法具有更好的適應性。對3組不同函數的測試表明,改進算法較傳統的遺傳算法具有在種群很小的情況下收斂速度快穩定性高的優點,同時能有效地避免早熟現象。
  • 「研究」支持向量機和其它類人工神經網絡的聯繫及區別
    1992年,Boser,Guyon和Vapnik等人在《A Training Algorithm for Optimal Margin Classifers》一書中提出了最優邊界分類器算法,也即SVM算法的最初模型,1993年,Comes和Vapnik在《The Soft Margin Classifier》一書中進一步討論了非線性情況下的最優邊界分類問題。
  • 支持向量機其實沒那麼玄乎
    在機器學習中,支持向量機也是一種常見的算法。支持向量機的原理是,在兩類的樣本中,尋找到能最好劃分類別的超平面。如果在平面中找不到,那就進入更多維度的空間,直至某個維度的空間能夠劃分出最合適的支持向量。兩條支持向量中間的那個超平面就是機器能夠利用的判斷邏輯。
  • 超詳細支持向量機知識點,面試官會問的都在這裡了
    它的基本思想是在特徵空間中尋找間隔最大的分離超平面使數據得到高效的二分類,具體來講,有三種情況(不加核函數的話就是個線性模型,加了之後才會升級為一個非線性模型):當訓練樣本線性可分時,通過硬間隔最大化,學習一個線性分類器,即線性可分支持向量機;當訓練數據近似線性可分時,引入鬆弛變量,通過軟間隔最大化,學習一個線性分類器,即線性支持向量機;當訓練數據線性不可分時,通過使用核技巧及軟間隔最大化
  • 支持向量機+sklearn繪製超平面
    核函數4.SVM 應用實例1.快速了解SVM 支持向量機(support vector machines,SVM)是一種二類分類模型。它的基本模型是定義在特徵空間上的間隔最大的線性分類器,間隔最大使它有別於感知機;而且SVM還支持核技巧,能夠對非線形的數據進行分類,其實就是將非線形問題變換為線性問題,通過解變換後的線性問題來得到原來非線形問題的解。舉個例子來說明支持向量機是來幹什麼的吧!
  • 配電網絡重構的改進混合遺傳算法
    本文提出一種基於改進的混合遺傳算法的配電網重構算法,在算法中使用可操作開關支路的整數編號的排列順序來表示染色體一個大型的配網包含眾多的節點和支路,因此圖中支撐樹的組合數目極大,若窮舉所有的樹,算法將非常的低效。  遺傳算法具有全局收斂性、無可微性要求、具有很好的魯棒性等優點,特別適合於求解組合優化問題。另外,與一般的隨機搜索方法進行的盲目無向搜索不同,遺傳算法進行的是高效有向的全局搜索,能夠逐步地逼近並收斂於全局最優解。因此,遺傳算法在配網重構中得到越來越廣泛的應用。
  • 如何使用支持向量機學習非線性數據集
    支持向量機(SVM)什麼是支持向量機呢?支持向量機是監督機器學習模型,可對數據進行分類分析。實際上,支持向量機算法是尋找能將實例進行分離的最佳超平面的過程。如果數據像上面那樣是線性可分離的,那麼我們用一個線性分類器就能將兩個類分開。
  • 機器學習|劉老師專欄—從邏輯回歸到支持向量機(一)
    劉老師專欄,今天分享的是從邏輯回歸到支持向量機解決分類問題的思路,算法理論知識固然重要,但更值得學習的是解決問題的思考方式,仔細欣賞劉老師的分享吧~需要複習邏輯回歸?請戳:機器學習|劉老師專欄——機器的「是非觀」機器學習|劉老師專欄——機器學習與是非題(二)機器學習|劉老師專欄——關於邏輯回歸的更多思考支持向量機是解決分類問題的另一個重要方法,關於這個方法的具體內容,因為我覺得插入公式和圖片都很麻煩,所以不再贅述。而且,相比於教材來說,贅述也不過是一種重複。
  • 遺傳算法全接觸(一)
    直到最後看到一個非 常有趣的比喻,覺得由此引出的袋鼠跳問題(暫且這麼叫它吧),既有趣直觀又直達遺傳算法的本質,確實非常適合作為初學者入門的例子。 問題的提出與解決方案 讓我們先來考慮考慮下面這個問題的解決辦法。
  • 遺傳算法原理以及在量化投資的應用
    其他選擇算法 還有其他的擴展的選擇算法,例如隨機競爭選擇、期望值選擇,排擠策略等。 遺傳算法優化 1.容易局部收斂的問題 遺傳算法的局部搜索很強,所以一般容易收斂用以下解決方案,具體情況具體對待。 擴大搜索空間 提高種群的數量、增加數據種類和數量、增加算子。
  • 機器學習特徵選擇常用算法
    2.2.2 啟發式搜索(1)序列前向選擇( SFS , Sequential Forward Selection )算法描述:特徵子集X從空集開始,每次選擇一個特徵x加入特徵子集X,使得特徵函數J( X)最優。簡單說就是,每次都選擇一個使得評價函數的取值達到最優的特徵加入,其實就是一種簡單的貪心算法。
  • 形象講解支持向量機
    支持向量機(SVM)是由分離超平面的判別分類器。換句話說,給定標記的訓練數據(監督學習),算法輸出最佳超平面,其對新示例進行分類。在二維空間中,這個超平面是將平面分成兩部分的線,其中每一類都位於兩側。本文以一個外行的角度來學習假設在圖表上給出了兩個標籤類的圖,如圖(A)所示。你能決定一個分類線嗎?
  • 深度講解支持向量機背後的數學思想
    在支持向量機(support vector machine,SVM)算法中,有諸多數學思想。學習SVM是一個非常好的實踐數學思想的過程,為我們以後創新解決問題思路提供了啟發。在卷積神經網絡興起之前,在機器學習界一直是非常受追捧的算法,不光是因為其有良好的泛化能力、很高的準確度,更是因為其完備的數學理論依據以及諸多較難理解的數學知識。