形象講解支持向量機

2021-01-08 AI火箭營

支持向量機(SVM)是由分離超平面的判別分類器。換句話說,給定標記的訓練數據(監督學習),算法輸出最佳超平面,其對新示例進行分類。在二維空間中,這個超平面是將平面分成兩部分的線,其中每一類都位於兩側。

本文以一個外行的角度來學習

假設在圖表上給出了兩個標籤類的圖,如圖(A)所示。你能決定一個分類線嗎?

圖A:畫出一條分隔黑色圓圈和藍色方塊的線條

你可能想出了類似於下面的圖像(圖像B)。它將兩個類完全分開。線條左側的任何點都屬於黑色圓圈類,右側屬於藍色方形類。分類。這就是SVM所做的。它找到一條線/超平面(在多維空間中分隔出類)。不久,我們將討論為什麼我寫多維空間。

s圖像B:樣本切割分為兩類

更複雜一點

到現在為止還挺好。現在考慮如果我們有如下圖所示的數據怎麼辦?顯然,沒有可以在這個xy平面中分隔兩個類的直線。那麼我們該怎麼辦?我們應用變換並添加一個維度,我們稱之為z軸。讓我們假設z平面上的點值,w =x+y。在這種情況下,我們可以將它作為點與z原點的距離來操縱。現在,如果我們在z軸上繪圖,則可以看到清晰的分離,並且可以繪製線條。

你能在這個平面上劃一條分界線嗎?

zy軸圖

這樣就可以分離了。

當我們將這條線轉換回原始平面時,它會映射到圓形邊界,如圖E所示。這些轉換稱為內核。

圖E.轉換回xy平面,一條線轉換為圓形

再複雜一些

如果數據圖重疊怎麼辦?或者,如果一些黑點在藍色點內?我們應該畫出哪一個線?

圖1

圖2

你覺得哪一個?其實,兩個答案都是正確的。第一個容忍一些異常點。第二個是嘗試通過完美分區實現0容差。

但是,還有權衡。在實際應用中,為數百萬個訓練數據集尋找完美的類需要花費大量時間。正如您將在編碼中看到的那樣。這稱為正則化參數。在下一節中,我們定義了兩個術語正則化參數和gamma。這些是SVM分類器中的調整參數。調整這些參數,我們可以在合理的時間內以更高的準確度實現相當大的非線性分類線。

另一個參數是內核。它定義了我們是否需要線性分離。這也將在下一節中討論。

調整參數:核函數、正則化C,Gamma和邊距。

核函數

線性SVM中超平面的學習是通過使用一些線性代數轉換問題來完成的。這是內核扮演角色的地方。

對於線性核,使用輸入(x)和每個支持向量(xi)之間的點積來預測新輸入的等式計算如下:

f(x)= B0+ sum(ai *(x,xi))

這是一個方程,涉及使用訓練數據中的所有支持向量計算新輸入向量(x)的內積。必須通過學習算法從訓練數據估計係數B0和ai(對於每個輸入)。

多項式核函數:K(x,xi)=(xxi+1)^d, d=1,2,...,N;

高斯核函數:k(||x-xc||)=exp{- ||x-xc||^2/(2*σ)^2) } 。

多項式和高斯核函數可以計算更高維度的分離線。這種解決低維難分、可維可分問題的技巧就是核函數技巧。

正則化參數C

正則化參數C反映了SVM優化你希望避免錯誤分類每個訓練示例的程度。

對於較大的C值,如果超平面能夠更好地將所有訓練點分類正確,則優化將選擇邊距較小的超平面。相反,非常小的C值將導致優化器尋找更大邊距的分離超平面,即使該超平面允許分錯更多的點。

下面的圖像是兩個不同正則化參數的示例。較低的正則化值,有一些錯誤分類;值越高,結果就越正確。

低正則化

高正則化

Gamma

Gamma參數定義單個訓練樣例的影響達到的程度,低值表示"遠",高值表示"接近"。換句話說,對於低Gamma,在分離線的計算中考慮遠離可能的分離線的點。高伽瑪意味著在計算中考慮接近合理線的點。

高Gamma

低Gamma

間隔

最後是SVM分類器的最後但非常重要的特性。SVM核心試圖獲得最大的間隔。

間隔是線與最近的類點的距離。

一個很好的邊際是這兩個類的分離更大。下面的圖片給出了好的和壞的邊緣的視覺示例。良好的分隔線允許點在各自的類中,而不會跨越其他類。

相關焦點

  • 深度講解支持向量機背後的數學思想
    在支持向量機(support vector machine,SVM)算法中,有諸多數學思想。學習SVM是一個非常好的實踐數學思想的過程,為我們以後創新解決問題思路提供了啟發。在卷積神經網絡興起之前,在機器學習界一直是非常受追捧的算法,不光是因為其有良好的泛化能力、很高的準確度,更是因為其完備的數學理論依據以及諸多較難理解的數學知識。
  • 從零推導支持向量機 (SVM) | 雷鋒網
    摘要支持向量機 (SVM) 是一個非常經典且高效的分類模型。但是,支持向量機中涉及許多複雜的數學推導,並需要比較強的凸優化基礎,使得有些初學者雖下大量時間和精力研讀,但仍一頭霧水,最終對其望而卻步。儘管現在深度學習十分流行,了解支持向量機的原理,對想法的形式化、簡化,及一步步使模型更一般化的過程,及其具體實現仍然有其研究價值。另一方面,支持向量機仍有其一席之地。相比深度神經網絡,支持向量機特別擅長於特徵維數多於樣本數的情況,而小樣本學習至今仍是深度學習的一大難題。1.
  • 支持向量機其實沒那麼玄乎
    在機器學習中,支持向量機也是一種常見的算法。支持向量機的原理是,在兩類的樣本中,尋找到能最好劃分類別的超平面。如果在平面中找不到,那就進入更多維度的空間,直至某個維度的空間能夠劃分出最合適的支持向量。兩條支持向量中間的那個超平面就是機器能夠利用的判斷邏輯。
  • 25道題檢測你對支持向量機算法的掌握程度
    相反的是,「支持向量機(SVM)」就像一把鋒利的刀,它比較適用於較小的數據集,但在較小的數據集上面,它可以構建更加強大的模型。相信在你學習機器學習算法解決分類問題的時候,肯定聽說過支持向量機(SVM),在過去的五十年中SVM在隨著時間進行演化,並且在分類之外也得到了應用,比如回歸、離散值分析、排序。
  • 智能財務風險預警方法—支持向量機
    ,此外,支持向量機還可以用在一些預測或者分析等領域,應用非常廣泛,工程科學等方面都能有所應用。當今世界上的支持向量機支持向量機的研究部分中,實際和理論方面的研究兩方在快速發展,如今支持向量機已經可以用於生物醫學識別,文本識別,人臉識別,手寫識別等非常多的領域。支持向量機將分類樣本映射為向量空間的特徵向量集合,並在向量空間中構造最優分類超平面,使得在保證分類正確的同時,不同類別的集合與最優分類超平面的間隔最大。
  • 如何使用支持向量機學習非線性數據集
    支持向量機(SVM)什麼是支持向量機呢?支持向量機是監督機器學習模型,可對數據進行分類分析。實際上,支持向量機算法是尋找能將實例進行分離的最佳超平面的過程。如果數據像上面那樣是線性可分離的,那麼我們用一個線性分類器就能將兩個類分開。
  • 支持向量機+sklearn繪製超平面
    核函數4.SVM 應用實例1.快速了解SVM 支持向量機(support vector machines,SVM)是一種二類分類模型。它的基本模型是定義在特徵空間上的間隔最大的線性分類器,間隔最大使它有別於感知機;而且SVM還支持核技巧,能夠對非線形的數據進行分類,其實就是將非線形問題變換為線性問題,通過解變換後的線性問題來得到原來非線形問題的解。舉個例子來說明支持向量機是來幹什麼的吧!
  • 改進遺傳算法的支持向量機特徵選擇解決方案
    支持向量機是一種在統計學習理論的基礎上發展而來的機器學習方法[1],通過學習類別之間分界面附近的精確信息,可以自動尋找那些對分類有較好區分能力的支持向量,由此構造出的分類器可以使類與類之間的間隔最大化,因而有較好的泛化性能和較高的分類準確率。由於支持向量機具有小樣本、非線性、高維數、避免局部最小點以及過學習現象等優點,所以被廣泛運用於故障診斷、圖像識別、回歸預測等領域。
  • 「研究」支持向量機和其它類人工神經網絡的聯繫及區別
    支持向量機(Support Vector Machines,SVM)是20世紀90年代初,由Vapnik教授領導的研究小組提出的一種新的智能機器,它基於Vapnik等人在上世紀60年代末提出統計學習理論。
  • 改進遺傳算法的支持向量機特徵選擇解決方案介紹
    支持向量機是一種在統計學習理論的基礎上發展而來的機器學習方法[1],通過學習類別之間分界面附近的精確信息,可以自動尋找那些對分類有較好區分能力的支持
  • 一個簡單的案例帶你了解支持向量機算法(Python代碼)
    相反,「支持向量機」就像一把鋒利的刀—它適用於較小的數據集,但它可以再這些小的數據集上面構建更加強大的模型。現在,我希望你現在已經掌握了隨機森林,樸素貝葉斯算法和模型融合的算法基礎。如果沒有,我希望你先抽出一部分時間來了解一下他們,因為在本文中,我將指導你了解認識機器學習算法中關鍵的高級算法,也就是支持向量機的基礎知識。
  • 超詳細支持向量機知識點,面試官會問的都在這裡了
    它的基本思想是在特徵空間中尋找間隔最大的分離超平面使數據得到高效的二分類,具體來講,有三種情況(不加核函數的話就是個線性模型,加了之後才會升級為一個非線性模型):當訓練樣本線性可分時,通過硬間隔最大化,學習一個線性分類器,即線性可分支持向量機;當訓練數據近似線性可分時,引入鬆弛變量,通過軟間隔最大化,學習一個線性分類器,即線性支持向量機;當訓練數據線性不可分時,通過使用核技巧及軟間隔最大化
  • 機器學習|劉老師專欄—從邏輯回歸到支持向量機(一)
    劉老師專欄,今天分享的是從邏輯回歸到支持向量機解決分類問題的思路,算法理論知識固然重要,但更值得學習的是解決問題的思考方式,仔細欣賞劉老師的分享吧~需要複習邏輯回歸?請戳:機器學習|劉老師專欄——機器的「是非觀」機器學習|劉老師專欄——機器學習與是非題(二)機器學習|劉老師專欄——關於邏輯回歸的更多思考支持向量機是解決分類問題的另一個重要方法,關於這個方法的具體內容,因為我覺得插入公式和圖片都很麻煩,所以不再贅述。而且,相比於教材來說,贅述也不過是一種重複。
  • 一種利用最小二乘支持向量機方法預測比採油指數的模型
    一種利用最小二乘支持向量機方法預測比採油指數的模型本篇文章來自中海油天津分公司和中國地質大學(武漢)等單位在油田開發方案設計時,比採油指數起著至關重要的作用。特別對於海上油田來說,受開發成本和時間限制的影響,存在測試時間較短和測試採樣點較少的劣勢。
  • 支持向量機(三):圖解KKT條件和拉格朗日乘子法
    前言支持向量機求解最優化參數的過程中需要用到拉格朗日乘子法和KKT條件,本文用清晰易懂的圖解法說明拉格朗日乘子法和
  • 有源醫聲支持舉辦中南大學湘雅二醫院第二屆健康科普講解大賽
    紅網時刻12月3日訊(通訊員 黃寒梅)近日,由湖南省衛生健康委宣傳處、中南大學科學技術協會指導,中南大學湘雅二醫院主辦,有源醫聲支持的「傳播健康知識·弘揚二院文化」中南大學湘雅二醫院第二屆健康科普講解大賽精彩開賽。
  • 如何學習SVM(支持向量機)以及改進實現SVM算法程序 - 雷鋒網
    雷鋒網 AI 科技評論按,本文為韋易笑在知乎問題如何學習SVM(支持向量機)以及改進實現SVM算法程序下面的回覆,雷鋒網 AI 科技評論獲其授權轉載。以下為正文:學習 SVM 的最好方法是實現一個 SVM,可講理論的很多,講實現的太少了。
  • 英雄聯盟手遊全圖講解,迅遊手遊加速器支持免費加速
    英雄聯盟手遊全圖講解,迅遊手遊加速器支持免費加速 來源:www.18183.com作者:阿姆斯特朗雷時間:2020-12-02 分享到: 迅遊手遊加速器為大家帶來英雄聯盟手遊天賦全解析和搭配講解,幫助大家更快上手遊戲。
  • 視頻講解土的三相組成
    為了更形象地反映土中的三相組成及其比例關係。它將一定量的土中的固體顆粒、水和氣體分布集中,並將質量和體積分布標註在草圖的左右兩側。如下圖所示。土的三相草圖本次分享的資料包括:視頻講解、隨堂課件與相關教材。視頻講解:該視頻全長1小時52分鐘,講解生動形象,認真仔細!
  • 【視頻】土的三相組成講解
    為了更形象地反映土中的三相組成及其比例關係。它將一定量的土中的固體顆粒、水和氣體分布集中,並將質量和體積分布標註在草圖的左右兩側。如下圖所示。土的三相草圖本次分享的資料包括:視頻講解、隨堂課件與相關教材。視頻講解:該視頻全長1小時52分鐘,講解生動形象,認真仔細!