有監督學習:從過去到現在的模型流行度(深度翻譯好文)!

2020-12-11 CDA數據分析師

在過去的幾十年中,機器學習領域發生了巨大的變化。誠然,有些方法已經存在很長時間了,但仍然是該領域的主要內容。例如,Legendre和Gauss已經在19世紀初提出了最小二乘的概念。在最近的幾十年中,諸如神經網絡等其他方法的最基本形式在1958年得到了極大的發展,而諸如支持向量機(SVM)等其他方法則是最近的。

由於監督學習的可用方法很多,因此經常會提出以下問題:**最佳模型是什麼?**眾所周知,這個問題很難回答,因為正如喬治·博克斯(George Box)所說的那樣,所有模型都是錯誤的,但有些模型是有用的。特別是,模型的實用性主要取決於手頭的數據。因此,這個問題沒有普遍的答案。以下是一個更容易回答的問題:什麼是最受歡迎的模型?。這將是本文的關注點。

衡量機器學習模型的受歡迎程度

出於本文的目的,我將使用一種常用方法來定義流行度。更準確地說,我將使用許多提及個別監督學習模型的科學出版物來代替受歡迎程度。當然,這種方法有一些局限性:

流行的概念可能比出版物的數量更準確。例如,批評某種模型的出版物並不一定暗示該模型很受歡迎。該分析受所用搜索詞的影響。為了確保高度的特異性,我沒有考慮模型縮寫,這就是為什麼我可能未檢索到所有潛在匹配的原因。此外,對於那些也被分析中未考慮的搜索詞引用的模型,靈敏度可能較低。文獻資料庫並不完美:有時,出版物存儲的原數據不正確(例如,年份不正確),或者出版物可能重複。因此,可以預料到出版頻率中會有一些噪聲。對於這一部分,我進行了兩次分析。第一種分析是對發布頻率的縱向分析,而第二種分析則比較了跨不同領域與機器學習模型相關的發布總數。

對於第一個分析,我通過從Google Scholar中抓取數據來確定了出版物的數量,Google Scholar考慮了科學出版物的標題和摘要。為了確定與個別監督學習方法相關的出版物數量,我確定了1950年至2017年之間的Google Scholar命中次數。眾所周知,由於從Google Scholar抓取數據非常困難,因此本文參考ScrapeHero提供的有用建議來收集數據。

在分析中包括以下13種監督方法:神經網絡,深度學習,SVM,隨機森林,決策樹,線性回歸,邏輯回歸,泊松回歸,嶺回歸,套索回歸,k近鄰,線性判別分析和對數線性模型。其中,對於套索回歸,搜索時考慮了搜索套索回歸和套索模型。對於最近方法,搜索時術語有k-nearest neighbor和k-nearest neighbour,得到的數據集表示從1950年到現在,每個監督模型相關的出版物的數量。

從1950年開始至今使用監督模型

為了分析縱向數據,我將區分兩個時期:機器學習的早期階段(1950年至1980年),在那兒只有很少的模型可用;而形成性的年份(1980年到現在),對機器學習的興趣激增,很多時期開發了新模型。請注意,在以下可視化中,僅顯示最相關的方法。

早期:線性回歸的優勢

從圖1中可以看出,線性回歸是1950年至1980年之間的主要方法。相比之下,其他機器學習模型在科學文獻中很少被提及。但是,從1960年代開始,我們可以看到神經網絡和決策樹的普及開始增長。我們還可以看到,邏輯回歸尚未得到廣泛應用,在1970年代末,提及的數量僅略有增加。

!

成長年:神經網絡的多元化和興起

圖2表明,從1980年代後期開始,科學出版物中提到的監督模型變得更加多樣化。重要的是,直到2013年,科學文獻中提到的機器學習模型的比率一直在穩定增長。該圖尤其表明了線性回歸,邏輯回歸和神經網絡的普及。正如我們之前所看到的,線性回歸在1980年之前已經很流行。但是,在1980年,神經網絡和邏輯回歸的普及開始迅速增長。當Logistic回歸的普及率在2010年達到頂峰時,該方法幾乎與線性回歸一樣流行,但神經網絡和深度學習(曲線神經網絡/深度學習)的共同普及 圖2)在2015年甚至超過了線性回歸的流行程度。

神經網絡之所以廣受青睞,是因為它們在諸如圖像識別(ImageNet,2012),面部識別(DeepFace,2014)和遊戲(AlphaGo,2016)等機器學習應用中取得了突破。Google Scholar的數據表明,在最近幾年中,科學文章中提到神經網絡的頻率略有下降(圖2中未顯示)。這是有可能的,因為術語深度學習(多層神經網絡)已在一定程度上取代了術語神經網絡的使用。使用Google趨勢可以找到相同的結果。

剩下的,較少流行的監督方法是決策樹和SVM。與排名前三的方法相比,提及這些方法的比率明顯較小。另一方面,文獻中提到這些方法的頻率似乎也較少波動。值得注意的是,決策樹和SVM的流行度都沒有下降。這與其他方法(例如線性和邏輯回歸)相反,後者在過去幾年中被提及的數量已大大減少。在決策樹和SVM之間,提到的SVM似乎顯示出更有利的增長趨勢,因為SVM僅在發明15年後就成功超過了決策樹。

所考慮的機器學習模型的提及次數在2013年達到頂峰(589,803個出版物),此後略有下降(2017年為462,045個出版物)。

監督學習模型在不同領域的普及

在第二個分析中,我想調查不同的社區是否依賴於不同的機器學習技術。為此,我查詢了三個用於科學出版物的存儲庫:用於普通出版物的Google Scholar,用於計算機科學出版物的dblp,以及用於生物醫學科學的PubMed。在這三個存儲庫中,我統計了13種機器學習模型的命中頻率。結果如圖3所示。

圖3證明了許多方法是特定於各個領域的。接下來,讓我們分析每個領域中最受歡迎的模型。

整體使用監督學習模型

根據Google Scholar表明,這是五個最常用的監督模型:

線性回歸: 3,580,000(34.3%)篇論文**邏輯回歸:**包含2,330,000(22.3%)篇論文神經網絡: 1,750,000(16.8%)篇論文決策樹: 875,000(8.4%)篇論文**支持向量機:**包含684,000(6.6%)篇論文總體而言,線性模型顯然佔主導地位,佔監督模型命中率的50%以上。非線性方法也不甘落後:神經網絡在所有論文中佔16.8%,位居第三,其次是決策樹(論文佔8.4%)和支持向量機(論文佔6.6%)。

模型在生物醫學科學中的使用

根據PubMed的說法,生物醫學中最流行的五個機器學習模型是:

邏輯回歸: 229,956(54.5%)篇論文線性回歸: 84,850(20.1%)篇論文Cox回歸: 38,801(9.2%)篇論文神經網絡: 23,883(5.7%)篇論文泊松回歸: 12,978(3.1%)篇論文在生物醫學科學中,我們看到與線性模型相關的提及數量過多:五種最流行的方法中有四種是線性的。這可能是由於兩個原因。首先,在醫療環境中,樣本數量通常太少而無法擬合複雜的非線性模型。其次,解釋結果的能力對於醫療應用至關重要。由於非線性方法通常較難解釋,因此它們不適合醫療應用,因為僅靠高預測性能通常是不夠的。

Logistic回歸在PubMed數據中的流行可能是由於大量發表臨床研究的出版物所致。在這些研究中,經常使用邏輯回歸分析分類結果(即治療成功),因為它非常適合於解釋特徵對結果的影響。請注意,Cox回歸在PubMed數據中非常流行,因為它經常用於分析Kaplan-Meier生存數據。

模型在計算機科學中的使用

從dblp檢索的計算機科學參考書目中,五個最受歡迎的模型是:

神經網絡: 63,695(68.3%)篇論文深度學習: 10,157(10.9%)篇論文支持向量機: 7,750(8.1%)篇論文決策樹: 4,074(4.4%)篇論文k近鄰: 3,839(2.1%)篇論文計算機科學出版物中提到的機器學習模型的分布是非常不同的:大多數出版物似乎都涉及到最近的非線性方法(例如神經網絡,深度學習和支持向量機)。如果我們包括深度學習,那麼在檢索到的計算機科學出版物中,有超過四分之三涉及神經網絡。

機器學習研究模型和現實應用模型的差異

圖4總結了文獻中提到的參數(包括半參數)模型和非參數模型的百分比。條形圖表明,在機器學習研究中研究的模型(由計算機科學出版物證明)與所應用的模型類型(由生物醫學和整體出版物證明)之間存在很大差異。儘管超過90%的計算機科學出版物都涉及非參數模型,但大約90%的生物醫學出版物都涉及參數模型。這表明機器學習研究主要集中在最先進的方法上,例如深度神經網絡,而機器學習的用戶通常依賴於更具可解釋性的參數化模型。

總結

對科學文獻中有監督學習模型的流行度分析表明了人工神經網絡的高度流行。但是,我們也看到在不同領域中使用了不同類型的機器學習模型。特別是生物醫學領域的研究人員仍然嚴重依賴參數模型。但有趣的是,這種情況逐漸在發生改變,隨著可解釋模型的研究更加深入,更複雜的模型一定會在生物醫學領域得到廣泛應用。

原文連結:https://www.kdnuggets.com/2018/12/supervised-learning-model-popularity-from-past-present.html?spm=a2c4e.10696291.0.0.354819a4R0jQUU

相關焦點

  • 主流的深度學習模型有哪些?
    單向的循環網絡僅著重於從「過去」推出「現在」,而無法對「未來」的依賴性有效的建模。遞歸神經網絡和循環神經網絡不同,它的計算圖結構是樹狀結構而不是網狀結構。遞歸循環網絡的目標和循環網絡相似,也是希望解決數據之間的長期依賴問題。而且其比較好的特點是用樹狀可以降低序列的長度,從O(n)降低到O(log(n)),熟悉數據結構的朋友都不陌生。
  • 2016深度學習重大進展:從無監督學習到生成對抗網絡 | 網際網路數據...
    過去幾年,深度學習成為了機器學習社區的核心話題,2016 年更是如此。在 Tryo Labs 的這篇盤點文章中,作者回顧了對該領域貢獻最大(或有潛力的)的進展以及組織和社區如何保證這些技術能以一種使所有人都受益的方式被使用。
  • 深度 一篇文章帶你進入無監督學習:從基本概念到四種實現模型(附論文)
    註:劉帝偉(譯者)、劉翔宇(審校)兩位老師對 6 月份的版本進行了編譯並發布到了 CSDN 極客頭條上,此篇編譯文章借用了兩位老師之前的翻譯(有部分調整),如有不允,請聯繫機器之心,謝謝!無監督學習可謂是深度學習的聖杯,其目標是建立可兼容小數據集進行訓練的通用系統,即便是很少的數據。如今深度學習模型往往在大型監督型數據集上訓練。
  • 從語言學到深度學習NLP,一文概述自然語言處理
    第二部分描述的是基於深度學習的 NLP,該論文首先描述了深度學習中的詞表徵,即從 one-hot 編碼、詞袋模型到詞嵌入和 word2vec 等,我們首先需要數字表徵詞彙才能進一步做自然語言處理。該論文回顧了 NLP 之中的深度學習重要模型與方法,比如卷積神經網絡、循環神經網絡、遞歸神經網絡;同時還討論了記憶增強策略、注意力機制以及無監督模型、強化學習模型、深度生成模型在語言相關任務上的應用;最後還討論了深度學習的各種框架,以期從深度學習的角度全面概述 NLP 發展近況。
  • 如何使用半監督學習為結構化數據訓練出更好的深度學習模型
    本文將使用半監督學習來提高深度神經模型在低數據環境下應用於結構化數據時的性能。 本文最初發表於 Towards Data Science 博客,經原作者 Youness Mansar 授權,InfoQ 中文站翻譯並分享。
  • 深度 | 當前最好的詞句嵌入技術概覽:從無監督學習轉向監督、多任務學習
    當前主要的研究趨勢是追求一種通用的嵌入技術:在大型語料庫中預訓練的嵌入,它能夠被添加到各種各樣下遊的任務模型中(情感分析、分類、翻譯等),從而通過引入一些從大型數據集中學習到的通用單詞或句子的表徵來自動地提升它們的性能。它是遷移學習的一種體現形式。儘管在相當長的一段時間內,對句子的無監督表示學習已經成為了一種行業規範。
  • 靈魂一問:深度強化學習終到盡頭?
    考慮到我們才剛剛開始了解創建一個魯棒的圖像分類器需要什麼(即使是在有監督的環境中,更不用說無監督的環境了),我認為在深度強化學習完全成長之前,我們已經有了一些基礎理論。但非常瘋狂的事情是,我們似乎正在逐步消除了這些障礙。而另一方面,卻出現 了一個可以玩Dota2、學會合作、學會對世界進行推理的無監督系統,這似乎讓人覺得我們快要到達技術的頂尖了,但實際上並沒有。
  • 引用次數最多的深度學習論文出自誰手?(無監督學習/生成模型篇)
    在GitHub上,@Terryum整理了一份精心編寫的論文推薦列表,其中包含了在深度學習領域中引用次數最多的前100篇論文(自2012年起)。有一些深度學習論文,無論它們屬於哪個應用領域,都值得仔細研習。文章在精不在多,雷鋒網提供的這些文章,都被認為是值得一讀的優秀論文。
  • 引用次數最多的深度學習論文出自誰手?無監督學習/生成模型篇
    雷鋒網AI科技評論:我們通常都會學習前輩或大牛的經典作品,而引用次數自然也成為了論文的一個重要標杆。在GitHub上,@Terryum整理了一份精心編寫的論文推薦列表,其中包含了在深度學習領域中引用次數最多的前100篇論文(自2012年起)。有一些深度學習論文,無論它們屬於哪個應用領域,都值得仔細研習。
  • 重磅 | 伯克利《深度無監督學習》今日開課!雙語字幕獨家上線!
    豐富的課程內容本課程將涵蓋深度學習中不需要標註數據的兩個領域:深度生成模型和自監督學習。生成模型的最新進展使得對自然圖像、音頻波形和文本語料庫等高維原始數據進行真實建模成為可能。自監督學習的進步已經開始縮小監督表示學習和非監督表示學習之間的差距,本課程將涵蓋這些主題的理論基礎以及它們的新應用。論文涉及GAN、VAE、降噪、自回歸、強化學習、自監督學習等等,課程歷時15周完成。
  • 深度學習的時間序列模型評價
    此外,時間序列對時間變量有明顯依賴性。在時間t給定輸入值x(t),該模型預測為Y(t),但在稍後的時間相同的輸入可以與不同的預測相關聯。為了解決這個問題,該模型包括從過去到現在更多的數據或者必須具有的過去的輸入的存儲器。對於長期依賴的第一種方法可以使輸入尺寸過大的模型來處理。另一個挑戰是,時間依賴性的長度可能是未知的。
  • 【一個深度學習模型解決所有問題】谷歌MultiModel通吃文本、圖像、翻譯
    來源: arXiv作者:文強【新智元導讀】我們能夠製作出一個統一的深度學習模型,讓這個模型解決多個領域的許多不同問題嗎?谷歌研究人員提出了一個多模式適用的架構 MultiModel,用單一的一個深度學習模型,學會文本、圖像和翻譯這些不同領域的 8 種不同任務,朝「一個模型解決所有問題」邁出了重要一步。我們能夠製作出一個能解決多領域不同問題的統一深度學習模型嗎?在深度學習研究領域,多任務適用模型(multi-task model)是一個由來已久的課題。
  • 【深度】從經典深度學習模型探討圖像識別新方向
    這些經典的模型其實在很多博文中早已被介紹過,作者的創新之處在於透過這些經典的模型,討論未來圖像識別的新方向,並提出圖像識別無監督學習的趨勢,並引出生成對抗網絡,以及討論了加速網絡訓練的新挑戰。文章梳理了用於圖像識別的深度學習方法的脈絡,並對將來的挑戰和方法做了分析,非常值得一讀!專知內容組編輯整理。
  • 【深度】自監督學習,如何從數據困境中拯救深度學習?
    然而監督式學習過於依賴大規模標註數據集,數據集的收集和人工標註需耗費大量的人力成本。自監督模型解決了這一難題,它能夠從大規模未標記數據中學習圖像特徵,而無需使用任何人工標註數據。每個深度學習實踐者都認同的一件事是:深度學習模型是數據低效的。
  • 重磅|伯克利《深度無監督學習》2020春季新課來襲!
    【新智元導讀】OpenAI顧問、伯克利加州分校人工智慧實驗室主任、機器人學習實驗室主任攜其博士生,為大家貢獻一門長達4個月的深度無監督學習課程,該課程是深度無監督學習的優秀課程,涵蓋了許多當前的最新水平,尤其是該課程使用了最新的模型更新研究生級課程。最近因為疫情,缺乏防護且人員密集的學校成為了重災區。
  • 從無監督學習說起:算法模型有哪幾種?
    無監督學習是沒有任何的數據標註,只有數據本身。無監督學習解決的主要是「聚類(Clustering)」問題,那它的算法模型有哪幾種?在上一篇筆記裡我們簡單地學習了監督學習的幾種算法模型,今天就來學習一下無監督學習的基本概念和相應的幾種算法模型。
  • 回望2017,基於深度學習的NLP研究大盤點
    雷鋒網(公眾號:雷鋒網) AI 科技評論根據原文進行了編譯。在過去的幾年裡,深度學習(DL)架構和算法在諸如圖像識別和語音處理等領域取得了世人矚目的進步。然而在最開始的時候,深度學習在自然語言處理(Natural Language Processing, NLP)領域的效果一般,但是現在已經被證實深度學習在自然語言處理領域依然能夠發揮巨大的作用。
  • 重磅盤點:過去8年中深度學習最重要的想法
    在深度學習領域,很多技術都可以跨域多個應用領域,包括計算機視覺,自然語言,語音識別和強化學習等等。在計算機視覺領域使用過深度學習的人,可能很快就能將類似的技術應用到自然語言研究中,即使特定的網絡結構有所不同,但其概念,實現方法和代碼基本一致。
  • 走進深度學習:一文帶你深入了解Deep Learning算法
    深度學習是與機器學習相關的下位詞,機器學習又是與人工智慧相關的下位詞。在過去的幾年裡,深度學習最廣泛的用例是圖像處理。儘管面部識別功能已經存在很長時間了,但是完美沒有極限。對於想從頭開始學習深度學習的人來說,理解它的工作機制似乎很難。
  • 從淺層模型到深度模型:概覽機器學習優化算法
    學習算法一直以來是機器學習能根據數據學到知識的核心技術。而好的優化算法可以大大提高學習速度,加快算法的收斂速度和效果。