「機器學習」機器學習算法優缺點對比(匯總篇)

2020-11-23 AI科技大本營

作者 | 杜博亞

來源 | 阿澤的學習筆記

「本文的目的,是務實、簡潔地盤點一番當前機器學習算法」。文中內容結合了個人在查閱資料過程中收集到的前人總結,同時添加了部分自身總結,在這裡,依據實際使用中的經驗,將對此模型優缺點及選擇詳加討論。

主要回顧下幾個常用算法的適應場景及其優缺點!

機器學習算法太多了,分類、回歸、聚類、推薦、圖像識別領域等等,要想找到一個合適算法真的不容易,所以在實際應用中,我們一般都是採用啟發式學習方式來實驗。通常最開始我們都會選擇大家普遍認同的算法,諸如SVM,GBDT,Adaboost,現在深度學習很火熱,神經網絡也是一個不錯的選擇。

假如你在乎精度(accuracy)的話,最好的方法就是通過交叉驗證(cross-validation)對各個算法一個個地進行測試,進行比較,然後調整參數確保每個算法達到最優解,最後選擇最好的一個。但是如果你只是在尋找一個「足夠好」的算法來解決你的問題,或者這裡有些技巧可以參考,下面來分析下各個算法的優缺點,基於算法的優缺點,更易於我們去選擇它。

天下沒有免費的午餐

在機器學習領域,一個基本的定理就是「沒有免費的午餐」。「換言之,就是沒有算法能完美地解決所有問題,尤其是對監督學習而言(例如預測建模)」。

舉例來說,你不能去說神經網絡任何情況下都能比決策樹更有優勢,反之亦然。它們要受很多因素的影響,比如你的數據集的規模或結構。

其結果是,在用給定的測試集來評估性能並挑選算法時,你應當根據具體的問題來採用不同的算法。

當然,**所選的算法必須要適用於你自己的問題,這就要求選擇正確的機器學習任務。**作為類比,如果你需要打掃房子,你可能會用到吸塵器、掃帚或是拖把,但你絕對不該掏出鏟子來挖地。

偏差&方差

在統計學中,一個模型好壞,是根據偏差和方差來衡量的,所以我們先來普及一下偏差(bias)和方差(variance):

偏差:描述的是預測值(估計值)的期望E』與真實值Y之間的差距。偏差越大,越偏離真實數據。

方差:描述的是預測值P的變化範圍,離散程度,是預測值的方差,也就是離其期望值E的距離。方差越大,數據的分布越分散。

模型的真實誤差是兩者之和,如公式3:

通常情況下,如果是小訓練集,高偏差/低方差的分類器(例如,樸素貝葉斯NB)要比低偏差/高方差大分類的優勢大(例如,KNN),因為後者會發生過擬合(overfiting)。然而,隨著你訓練集的增長,模型對於原數據的預測能力就越好,偏差就會降低,此時低偏差/高方差的分類器就會漸漸的表現其優勢(因為它們有較低的漸近誤差),而高偏差分類器這時已經不足以提供準確的模型了。

「為什麼說樸素貝葉斯是高偏差低方差?」

以下內容引自知乎:

首先,假設你知道訓練集和測試集的關係。簡單來講是我們要在訓練集上學習一個模型,然後拿到測試集去用,效果好不好要根據測試集的錯誤率來衡量。但很多時候,我們只能假設測試集和訓練集的是符合同一個數據分布的,但卻拿不到真正的測試數據。這時候怎麼在只看到訓練錯誤率的情況下,去衡量測試錯誤率呢?

由於訓練樣本很少(至少不足夠多),所以通過訓練集得到的模型,總不是真正正確的。(就算在訓練集上正確率100%,也不能說明它刻畫了真實的數據分布,要知道刻畫真實的數據分布才是我們的目的,而不是只刻畫訓練集的有限的數據點)。而且,實際中,訓練樣本往往還有一定的噪音誤差,所以如果太追求在訓練集上的完美而採用一個很複雜的模型,會使得模型把訓練集裡面的誤差都當成了真實的數據分布特徵,從而得到錯誤的數據分布估計。這樣的話,到了真正的測試集上就錯的一塌糊塗了(這種現象叫過擬合)。但是也不能用太簡單的模型,否則在數據分布比較複雜的時候,模型就不足以刻畫數據分布了(體現為連在訓練集上的錯誤率都很高,這種現象較欠擬合)。過擬合表明採用的模型比真實的數據分布更複雜,而欠擬合表示採用的模型比真實的數據分布要簡單。

在統計學習框架下,大家刻畫模型複雜度的時候,有這麼個觀點,認為Error = Bias + Variance。這裡的Error大概可以理解為模型的預測錯誤率,是有兩部分組成的,一部分是由於模型太簡單而帶來的估計不準確的部分(Bias),另一部分是由於模型太複雜而帶來的更大的變化空間和不確定性(Variance)。

所以,這樣就容易分析樸素貝葉斯了。它簡單的假設了各個數據之間是無關的,是一個被「嚴重簡化了的模型」。所以,對於這樣一個簡單模型,大部分場合都會Bias部分大於Variance部分,也就是說高偏差而低方差。

在實際中,為了讓Error儘量小,我們在選擇模型的時候需要平衡Bias和Variance所佔的比例,也就是平衡over-fitting和under-fitting。

當模型複雜度上升的時候,偏差會逐漸變小,而方差會逐漸變大。

常見算法優缺點

樸素貝葉斯

樸素貝葉斯屬於生成式模型(關於生成模型和判別式模型,主要還是在於是否需要求聯合分布),比較簡單,你只需做一堆計數即可。如果注有條件獨立性假設(一個比較嚴格的條件),樸素貝葉斯分類器的收斂速度將快於判別模型,比如邏輯回歸,所以你只需要較少的訓練數據即可。即使NB條件獨立假設不成立,NB分類器在實踐中仍然表現的很出色。它的主要缺點是它不能學習特徵間的相互作用,用mRMR中R來講,就是特徵冗餘。引用一個比較經典的例子,比如,雖然你喜歡Brad Pitt和Tom Cruise的電影,但是它不能學習出你不喜歡他們在一起演的電影。

「優點」:

樸素貝葉斯模型發源於古典數學理論,有著堅實的數學基礎,以及穩定的分類效率。對大數量訓練和查詢時具有較高的速度。即使使用超大規模的訓練集,針對每個項目通常也只會有相對較少的特徵數,並且對項目的訓練和分類也僅僅是特徵概率的數學運算而已;對小規模的數據表現很好,能個處理多分類任務,適合增量式訓練(即可以實時的對新增的樣本進行訓練);對缺失數據不太敏感,算法也比較簡單,常用於文本分類;樸素貝葉斯對結果解釋容易理解;「缺點」:

需要計算先驗概率;分類決策存在錯誤率;對輸入數據的表達形式很敏感;由於「使用了樣本屬性獨立性的假設,所以如果樣本屬性有關聯時其效果不好」;「樸素貝葉斯應用領域」

欺詐檢測中使用較多一封電子郵件是否是垃圾郵件一篇文章應該分到科技、政治,還是體育類一段文字表達的是積極的情緒還是消極的情緒?人臉識別Logistic Regression(邏輯回歸)

邏輯回歸屬於判別式模型,同時伴有很多模型正則化的方法(L0, L1,L2,etc),而且你不必像在用樸素貝葉斯那樣擔心你的特徵是否相關。與決策樹、SVM相比,你還會得到一個不錯的概率解釋,你甚至可以輕鬆地利用新數據來更新模型(使用在線梯度下降算法-online gradient descent)。如果你需要一個概率架構(比如,簡單地調節分類閾值,指明不確定性,或者是要獲得置信區間),或者你希望以後將更多的訓練數據快速整合到模型中去,那麼使用它吧。

「Sigmoid函數」表達式如下:

「優點:」

實現簡單,廣泛的應用於工業問題上;分類時計算量非常小,速度很快,存儲資源低;便利的觀測樣本概率分數;對邏輯回歸而言,多重共線性並不是問題,它可以結合L2正則化來解決該問題;計算代價不高,易於理解和實現;「缺點」:

當特徵空間很大時,邏輯回歸的性能不是很好;容易「欠擬合」,一般準確度不太高不能很好地處理大量多類特徵或變量;只能處理兩分類問題(在此基礎上衍生出來的softmax可以用於多分類),且必須「線性可分」;對於非線性特徵,需要進行轉換;「logistic回歸應用領域:」

用於二分類領域,可以得出概率值,適用於根據分類概率排名的領域,如搜索排名等。Logistic回歸的擴展softmax可以應用於多分類領域,如手寫字識別等。信用評估測量市場營銷的成功度預測某個產品的收益特定的某天是否會發生地震

線性回歸

線性回歸是用於回歸的,它不像Logistic回歸那樣用於分類,其基本思想是用「梯度下降法」對最小二乘法形式的誤差函數進行優化,當然也可以用normal equation直接求得參數的解,結果為:

而在LWLR(局部加權線性回歸)中,參數的計算表達式為:

由此可見LWLR與LR不同,LWLR是一個非參數模型,因為每次進行回歸計算都要遍歷訓練樣本至少一次。

「優點」:實現簡單,計算簡單;

「缺點」:不能擬合非線性數據.

最近鄰算法——KNN

KNN即最近鄰算法,其主要過程為:

1. 計算訓練樣本和測試樣本中每個樣本點的距離(常見的距離度量有歐式距離,馬氏距離等);

2. 對上面所有的距離值進行排序(升序);

3. 選前k個最小距離的樣本;

4. 根據這k個樣本的標籤進行投票,得到最後的分類類別;

如何選擇一個最佳的K值,這取決於數據。一般情況下,在分類時較大的K值能夠減小噪聲的影響,但會使類別之間的界限變得模糊。一個較好的K值可通過各種啟發式技術來獲取,比如,交叉驗證。另外噪聲和非相關性特徵向量的存在會使K近鄰算法的準確性減小。近鄰算法具有較強的一致性結果,隨著數據趨於無限,算法保證錯誤率不會超過貝葉斯算法錯誤率的兩倍。對於一些好的K值,K近鄰保證錯誤率不會超過貝葉斯理論誤差率。

「KNN算法的優點」

理論成熟,思想簡單,既可以用來做分類也可以用來做回歸;可用於非線性分類;訓練時間複雜度為O(n);對數據沒有假設,準確度高,對outlier不敏感;KNN是一種在線技術,新數據可以直接加入數據集而不必進行重新訓練;KNN理論簡單,容易實現;「缺點」

樣本不平衡問題(即有些類別的樣本數量很多,而其它樣本的數量很少)效果差;需要大量內存;對於樣本容量大的數據集計算量比較大(體現在距離計算上);樣本不平衡時,預測偏差比較大。如:某一類的樣本比較少,而其它類樣本比較多;KNN每一次分類都會重新進行一次全局運算;k值大小的選擇沒有理論選擇最優,往往是結合K-折交叉驗證得到最優k值選擇;「KNN算法應用領域」

文本分類、模式識別、聚類分析,多分類領域

決策樹

決策樹的一大優勢就是易於解釋。它可以毫無壓力地處理特徵間的交互關係並且是非參數化的,因此你不必擔心異常值或者數據是否線性可分(舉個例子,決策樹能輕鬆處理好類別A在某個特徵維度x的末端,類別B在中間,然後類別A又出現在特徵維度x前端的情況)。它的缺點之一就是不支持在線學習,於是在新樣本到來後,決策樹需要全部重建。另一個缺點就是容易出現過擬合,但這也就是諸如隨機森林RF(或提升樹boosted tree)之類的集成方法的切入點。另外,隨機森林經常是很多分類問題的贏家(通常比支持向量機好上那麼一丁點),它訓練快速並且可調,同時你無須擔心要像支持向量機那樣調一大堆參數,所以在以前都一直很受歡迎。

決策樹中很重要的一點就是選擇一個屬性進行分枝,因此要注意一下信息增益的計算公式,並深入理解它。

信息熵的計算公式如下:

其中的n代表有n個分類類別(比如假設是二類問題,那麼n=2)。分別計算這2類樣本在總樣本中出現的概率和,這樣就可以計算出未選中屬性分枝前的信息熵。

現在選中一個屬性用來進行分枝,此時分枝規則是:如果的話,將樣本分到樹的一個分支;如果不相等則進入另一個分支。很顯然,分支中的樣本很有可能包括2個類別,分別計算這2個分支的熵和,計算出分枝後的總信息熵,則此時的信息增益。以信息增益為原則,把所有的屬性都測試一邊,選擇一個使增益最大的屬性作為本次分枝屬性。

「決策樹自身的優點」

決策樹易於理解和解釋,可以可視化分析,容易提取出規則;可以同時處理標稱型和數值型數據;比較適合處理有缺失屬性的樣本;能夠處理不相關的特徵;測試數據集時,運行速度比較快;在相對短的時間內能夠對大型數據源做出可行且效果良好的結果。「缺點」

容易發生過擬合(隨機森林可以很大程度上減少過擬合);容易忽略數據集中屬性的相互關聯;對於那些各類別樣本數量不一致的數據,在決策樹中,進行屬性劃分時,不同的判定準則會帶來不同的屬性選擇傾向;信息增益準則對可取數目較多的屬性有所偏好(典型代表ID3算法),而增益率準則(CART)則對可取數目較少的屬性有所偏好,但CART進行屬性劃分時候不再簡單地直接利用增益率盡心劃分,而是採用一種啟發式規則)(只要是使用了信息增益,都有這個缺點,如RF)。ID3算法計算信息增益時結果偏向數值比較多的特徵。「改進措施」

對決策樹進行剪枝。可以採用交叉驗證法和加入正則化的方法。使用基於決策樹的combination算法,如bagging算法,randomforest算法,可以解決過擬合的問題;「應用領域」

企業管理實踐,企業投資決策,由於決策樹很好的分析能力,在決策過程應用較多。

ID3、C4.5算法

ID3算法是以資訊理論為基礎,以信息熵和信息增益度為衡量標準,從而實現對數據的歸納分類。ID3算法計算每個屬性的信息增益,並選取具有最高增益的屬性作為給定的測試屬性。C4.5算法核心思想是ID3算法,是ID3算法的改進,改進方面有:

用信息增益率來選擇屬性,克服了用信息增益選擇屬性時偏向選擇取值多的屬性的不足;在樹構造過程中進行剪枝;能處理非離散的數據;能處理不完整的數據。「優點」

產生的分類規則易於理解,準確率較高。「缺點」

在構造樹的過程中,需要對數據集進行多次的順序掃描和排序,因而導致算法的低效;C4.5隻適合於能夠駐留於內存的數據集,當訓練集大得無法在內存容納時程序無法運行。

CART分類與回歸樹

是一種決策樹分類方法,採用基於最小距離的基尼指數估計函數,用來決定由該子數據集生成的決策樹的拓展形。如果目標變量是標稱的,稱為分類樹;如果目標變量是連續的,稱為回歸樹。分類樹是使用樹結構算法將數據分成離散類的方法。

「優點」

非常靈活,可以允許有部分錯分成本,還可指定先驗概率分布,可使用自動的成本複雜性剪枝來得到歸納性更強的樹。2)在面對諸如存在缺失值、變量數多等問題時CART 顯得非常穩健。

Adaboosting

Adaboost是一種加和模型,每個模型都是基於上一次模型的錯誤率來建立的,過分關注分錯的樣本,而對正確分類的樣本減少關注度,逐次迭代之後,可以得到一個相對較好的模型。該算法是一種典型的boosting算法,其加和理論的優勢可以使用Hoeffding不等式得以解釋。有興趣的同學可以閱讀下自己之前寫的這篇文章AdaBoost算法詳述。下面總結下它的優缺點。

「優點」

Adaboost是一種有很高精度的分類器。可以使用各種方法構建子分類器,Adaboost算法提供的是框架。當使用簡單分類器時,計算出的結果是可以理解的,並且弱分類器的構造極其簡單。簡單,不用做特徵篩選。不易發生overfitting。關於Adaboost, GBDT 及 XGBoost 算法區別,參考這篇文章:Adaboost、GBDT與XGBoost的區別

「缺點」

對outlier比較敏感

SVM支持向量機

支持向量機,一個經久不衰的算法,高準確率,為避免過擬合提供了很好的理論保證,而且就算數據在原特徵空間線性不可分,只要給個合適的核函數,它就能運行得很好。在動輒超高維的文本分類問題中特別受歡迎。可惜內存消耗大,難以解釋,運行和調參也有些煩人,而隨機森林卻剛好避開了這些缺點,比較實用。

「優點」

可以解決高維問題,即大型特徵空間;解決小樣本下機器學習問題;能夠處理非線性特徵的相互作用;無局部極小值問題;(相對於神經網絡等算法)無需依賴整個數據;泛化能力比較強;「缺點」

當觀測樣本很多時,效率並不是很高;對非線性問題沒有通用解決方案,有時候很難找到一個合適的核函數;對於核函數的高維映射解釋力不強,尤其是徑向基函數;常規SVM只支持二分類;「對缺失數據敏感」;對於核的選擇也是有技巧的(libsvm中自帶了四種核函數:線性核、多項式核、RBF以及sigmoid核):

第一,如果樣本數量小於特徵數,那麼就沒必要選擇非線性核,簡單的使用線性核就可以了;第二,如果樣本數量大於特徵數目,這時可以使用非線性核,將樣本映射到更高維度,一般可以得到更好的結果;第三,如果樣本數目和特徵數目相等,該情況可以使用非線性核,原理和第二種一樣。對於第一種情況,也可以先對數據進行降維,然後使用非線性核,這也是一種方法。

「SVM應用領域」

文本分類、圖像識別(主要二分類領域,畢竟常規SVM只能解決二分類問題)

人工神經網絡的優缺點

「人工神經網絡的優點:」

分類的準確度高;並行分布處理能力強,分布存儲及學習能力強,對噪聲神經有較強的魯棒性和容錯能力;具備聯想記憶的功能,能充分逼近複雜的非線性關係;「人工神經網絡的缺點:」

神經網絡需要大量的參數,如網絡拓撲結構、權值和閾值的初始值;黑盒過程,不能觀察之間的學習過程,輸出結果難以解釋,會影響到結果的可信度和可接受程度;學習時間過長,有可能陷入局部極小值,甚至可能達不到學習的目的。「人工神經網絡應用領域:」

目前深度神經網絡已經應用與計算機視覺,自然語言處理,語音識別等領域並取得很好的效果。

K-Means聚類

是一個簡單的聚類算法,把n的對象根據他們的屬性分為k個分割,k< n。算法的核心就是要優化失真函數J,使其收斂到局部最小值但不是全局最小值。

關於K-Means聚類的文章,參見機器學習算法-K-means聚類。關於K-Means的推導,裡面可是有大學問的,蘊含著強大的EM思想。

「優點」

算法簡單,容易實現 ;算法速度很快;對處理大數據集,該算法是相對可伸縮的和高效率的,因為它的複雜度大約是O(nkt),其中n是所有對象的數目,k是簇的數目,t是迭代的次數。通常k<<n。這個算法「通常局部收斂」。算法嘗試找出使平方誤差函數值最小的k個劃分。當簇是密集的、球狀或團狀的,且簇與簇之間區別明顯時,聚類效果較好。「缺點」

對數據類型要求較高,適合數值型數據;可能收斂到局部最小值,在大規模數據上收斂較慢分組的數目k是一個輸入參數,不合適的k可能返回較差的結果。對初值的簇心值敏感,對於不同的初始值,可能會導致不同的聚類結果;不適合於發現非凸面形狀的簇,或者大小差別很大的簇。對於」噪聲」和孤立點數據敏感,少量的該類數據能夠對平均值產生極大影響。

EM最大期望算法

EM算法是基於模型的聚類方法,是在概率模型中尋找參數最大似然估計的算法,其中概率模型依賴於無法觀測的隱藏變量。E步估計隱含變量,M步估計其他參數,交替將極值推向最大。

EM算法比K-means算法計算複雜,收斂也較慢,不適於大規模數據集和高維數據,但比K-means算法計算結果穩定、準確。EM經常用在機器學習和計算機視覺的數據集聚(Data Clustering)領域。

集成算法(AdaBoost算法)

「AdaBoost算法優點:」

很好的利用了弱分類器進行級聯;可以將不同的分類算法作為弱分類器;AdaBoost具有很高的精度;相對於bagging算法和Random Forest算法,AdaBoost充分考慮的每個分類器的權重;「Adaboost算法缺點:」

AdaBoost迭代次數也就是弱分類器數目不太好設定,可以使用交叉驗證來進行確定;數據不平衡導致分類精度下降;訓練比較耗時,每次重新選擇當前分類器最好切分點;「AdaBoost應用領域:」

模式識別、計算機視覺領域,用於二分類和多分類場景

排序算法(PageRank)

PageRank是google的頁面排序算法,是基於從許多優質的網頁連結過來的網頁,必定還是優質網頁的回歸關係,來判定所有網頁的重要性。(也就是說,一個人有著越多牛X朋友的人,他是牛X的概率就越大。)

「PageRank優點」

完全獨立於查詢,只依賴於網頁連結結構,可以離線計算。「PageRank缺點」

PageRank算法忽略了網頁搜索的時效性。舊網頁排序很高,存在時間長,積累了大量的in-links,擁有最新資訊的新網頁排名卻很低,因為它們幾乎沒有in-links。

3.13 「關聯規則算法(Apriori算法)」

Apriori算法是一種挖掘關聯規則的算法,用於挖掘其內含的、未知的卻又實際存在的數據關係,其核心是基於兩階段頻集思想的遞推算法 。

「Apriori算法分為兩個階段:」

尋找頻繁項集由頻繁項集找關聯規則「算法缺點:」

在每一步產生侯選項目集時循環產生的組合過多,沒有排除不應該參與組合的元素;每次計算項集的支持度時,都對資料庫中 的全部記錄進行了一遍掃描比較,需要很大的I/O負載。

算法選擇參考

之前筆者翻譯過一些國外的文章,其中有一篇文章中給出了一個簡單的算法選擇技巧:

首當其衝應該選擇的就是邏輯回歸,如果它的效果不怎麼樣,那麼可以將它的結果作為基準來參考,在基礎上與其他算法進行比較;然後試試決策樹(隨機森林)看看是否可以大幅度提升你的模型性能。即便最後你並沒有把它當做為最終模型,你也可以使用隨機森林來移除噪聲變量,做特徵選擇;如果特徵的數量和觀測樣本特別多,那麼當資源和時間充足時(這個前提很重要),使用SVM不失為一種選擇。通常情況下:【GBDT>=SVM>=RF>=Adaboost>=Other…】,現在深度學習很熱門,很多領域都用到,它是以神經網絡為基礎的,目前筆者自己也在學習,只是理論知識不紮實,理解的不夠深入,這裡就不做介紹了,希望以後可以寫一片拋磚引玉的文章。

算法固然重要,「但好的數據卻要優於好的算法」,設計優良特徵是大有裨益的。假如你有一個超大數據集,那麼無論你使用哪種算法可能對分類性能都沒太大影響(此時就可以根據速度和易用性來進行抉擇)。

參考文獻

機器學習算法比較Machine Learning - 常見算法優缺點Selecting the best Machine Learning algorithm for your regression problem

相關焦點

  • 三張圖讀懂機器學習:基本概念、五大流派與九種常見算法
    機器學習和人工智慧的關係 機器學習是一種重在尋找數據中的模式並使用這些模式來做出預測的研究和算法的門類。機器學習是人工智慧領域的一部分,並且和知識發現與數據挖掘有所交集。更多解讀可參閱《一文讀懂機器學習、數據科學、人工智慧、深度學習和統計學之間的區別》。
  • 回歸、分類與聚類:三大方向剖解機器學習算法的優缺點(附Python和R...
    選自EliteDataScience機器之心編譯參與:蔣思源、晏奇在本教程中,作者對現代機器學習算法進行一次簡要的實戰梳理。雖然類似的總結有很多,但是它們都沒有真正解釋清楚每個算法在實踐中的好壞,而這正是本篇梳理希望完成的。因此本文力圖基於實踐中的經驗,討論每個算法的優缺點。而機器之心也在文末給出了這些算法的具體實現細節。
  • 「壓縮」會是機器學習的下一個殺手級應用嗎?
    儘管這樣,還有一個問題擺在面前,研究這些算法對於現實有什麼用。特別是當討論起機器學習在手機和其他設備上的應用時,經常會被問到到:「機器學習有什麼殺手級應用?」機器學習工程師 Pete Warden 思考了很多種答案,包括從語音交互到全新的使用傳感器數據的方法等,但他認為實際上短期內最激動人性的一個方向是壓縮算法。
  • 入門| 機器學習新手必看10大算法
    在機器學習中,有一種叫做「沒有免費的午餐」的定理。簡而言之,它指出沒有任何一種算法對所有問題都有效,在監督學習(即預測建模)中尤其如此。 例如,你不能說神經網絡總是比決策樹好,反之亦然。有很多因素在起作用,例如數據集的大小和結構。
  • 盤點| 機器學習入門算法:從線性模型到神經網絡
    近段時間以來,我們頻頻聽到「機器學習(machine learning)」這個詞(通常在預測分析(predictive analysis)和人工智慧(artificial intelligence)的上下文中)。
  • 谷歌AutoML鼻祖新作AutoML-Zero:從零開始構建機器學習算法
    【新智元導讀】市面上的自動機器學習算法多如牛毛,但並沒有得到很好的普及,因為這些算法限制了搜索的空間,很多研究者還是需要自己設計機器學習模型的結構,而谷歌此次發布的AutoML-Zero搜索空間完全沒有限制,可以從最基礎的數學公式開始。「新智元急聘主筆、編輯、運營經理、客戶經理,添加HR微信(Dr-wly)了解詳情。」
  • 常見機器學習算法優缺點比較
    7.人工神經網絡的優缺點  人工神經網絡的優點:  · 分類的準確度高;  · 並行分布處理能力強,分布存儲及學習能力強,  · 對噪聲神經有較強的魯棒性和容錯能力  8、K-Means聚類  之前寫過一篇關於K-Means聚類的文章,博文連結:機器學習算法-K-means聚類。關於K-Means的推導,裡面有著很強大的EM思想。
  • 想快速部署機器學習項目?來看看幾大主流機器學習服務平臺對比吧
    雷鋒網(公眾號:雷鋒網) AI 研習社按,日前,kdnuggets 上的一篇文章對比了三大公司(谷歌、微軟和亞馬遜)提供的機器學習服務平臺,對於想要啟動機器學習項目的公司或是數據科學新手來說,提供了非常多的指導和建議。
  • 新手必看的十種機器學習算法
    然而,在眾多的機器學習算法中,哪些是又上手快捷又功能強大、適合新手學習的呢?Towards Data Science 上一篇文章就介紹了十種新手必看的機器學習算法,雷鋒網 AI 科技評論全文編譯如下。如果早就知道,我們就可以直接使用它,而不需要再通過機器學習算法從數據中進行學習了。最常見的機器學習就是學習 Y=f(X) 的映射,針對新的 X 預測 Y。這叫做預測建模或預測分析。我們的目標就是讓預測更加精確。針對希望對機器學習有個基本了解的新人來說,下面將介紹數據科學家們最常使用的 10 種機器學習算法。1.
  • 陳天奇:機器學習科研的十年
    「你香港回來以後升級了嘛。」-- 來自某大俠的評論。這也許是對於我三個月香港實習的最好概括的吧。香港實習結束的時候我收穫了第一篇正式的一作會議論文 (在當年的 ICML)。因為 KDDCup 的緣故,我認識了我現在博士導師 Carlos 的 postdoc Danny,Danny 把我推薦給了 Carlos(UW) 和 Alex(CMU)。
  • 95後哈佛小哥撰寫從零開始的機器學習入門必備,書籍資源已開放
    說起機器學習入門書,大概有成百上千種選擇。這些書籍大多是由具備豐富研究經驗的學者撰寫的,涵蓋各種主題。俗話說「開卷有益」,但對於轉專業的初學者來說,這本新書或許更適合入門:近日,一位畢業於哈佛大學的小哥根據自己的機器學習入門經歷,撰寫了一本《從零開始的機器學習》。
  • 機器學習在馬蜂窩酒店聚合中的應用初探
    酒店聚合能力的強弱,決定著用戶預訂酒店時可選價格的「厚度」,進而影響用戶個性化、多元化的預訂體驗。為了使酒店聚合更加實時、準確、高效,現在馬蜂窩酒店業務中近 80% 的聚合任務都是由機器自動完成。本文將詳細闡述酒店聚合是什麼,以及時下熱門的機器學習技術在酒店聚合中是如何應用的。
  • 95後哈佛小哥撰寫《從零開始的機器學習》,入門必備,書籍資源已開放
    說起機器學習入門書,大概有成百上千種選擇。這些書籍大多是由具備豐富研究經驗的學者撰寫的,涵蓋各種主題。俗話說「開卷有益」,但對於轉專業的初學者來說,這本新書或許更適合入門:近日,一位畢業於哈佛大學的小哥根據自己的機器學習入門經歷,撰寫了一本《從零開始的機器學習》。
  • 機器學習算法匯總:人工神經網絡、深度學習及其它
    【編者按】機器學習的算法很多。很多時候困惑人們都是,很多算法是一類算法,而有些算法又是從其他算法中延伸出來的。這裡,我們從兩個方面來給大家介紹,第一個方面是學習的方式,第二個方面是算法的類似性。本文來自IT經理網。
  • 教程| 初學者如何選擇合適的機器學習算法(附速查表)
    選自sas機器之心編譯參與:黃小天、蔣思源、吳攀本文主要的目標讀者是機器學習愛好者或數據科學的初學者,以及對學習和應用機器學習算法解決實際問題抱有濃厚興趣的讀者。面對大量的機器學習算法,初學者通常會問自己一個典型的問題:「我該使用哪一種算法?」
  • 業界| 四大機器學習程式語言對比:R、Python、MATLAB、Octave
    原標題:業界 | 四大機器學習程式語言對比:R、Python、MATLAB、Octave 選自 towardsdatascience 作者:MJ Bahmani 參與:張倩、路 本文作者是一位機器學習工程師,他比較了四種機器學習程式語言(工具):R、Python、MATLAB 和 OCTAVE。
  • 機器學習算法集錦:從貝葉斯到深度學習及各自優缺點
    選自static.coggle.it機器之心編譯在我們日常生活中所用到的推薦系統、智能圖片美化應用和聊天機器人等應用中,各種各樣的機器學習和數據處理算法正盡職盡責地發揮著自己的功效。本文篩選並簡單介紹了一些最常見算法類別,還為每一個類別列出了一些實際的算法並簡單介紹了它們的優缺點。
  • 如何使用 Julia 語言實現「同態加密+機器學習」?
    選自JuliaComputing作者:Keno Fischer機器之心編譯參與:李詩萌、Geek AI最近,「區塊鏈」、「聯邦學習」等概念受到了空前的關注。而在這些概念背後,少不了一項技術的影子——「同態加密」。本文介紹了使用 Julia 語言進行基於同態加密數據機器學習的全過程,對於入門者具有極大的參考價值。
  • 李沐《動手學深度學習》第一章:機器學習簡介
    我們跳進車準備出發,Alex 掏出他的安卓喊一聲「OK Google」喚醒語言助手,Mu 操著他的中式英語命令到「去藍瓶咖啡店」。手機這時馬上顯示出識別的命令,並且知道我們需要導航。接著它調出地圖應用並給出數條路線方案,每條方案邊上會有預估的到達時間並自動選擇最快的線路。好吧,這是一個虛構的例子,因為我們一般在辦公室喝自己的手磨咖啡。
  • 別再抄襲論文圖片了,機器學習算法能自動檢測出來
    雷鋒網 AI 科技評論按:近期來自紐約雪城大學的 Daniel Acuna 等人在 bioRxiv 上發表了一篇文章,作者在文章提出了一種機器學習算法,該算法能夠自動進行論文圖片查重,其目的旨在解決文獻查重中的一個死角——圖片查重。目前許多期刊都會對一些圖片進行查重,但只有極少數的期刊有自動化的查重流程。