有監督學習:從過去到現在的模型流行度(深度翻譯好文)!

2020-12-23 CDA數據分析師

在過去的幾十年中,機器學習領域發生了巨大的變化。誠然,有些方法已經存在很長時間了,但仍然是該領域的主要內容。例如,Legendre和Gauss已經在19世紀初提出了最小二乘的概念。在最近的幾十年中,諸如神經網絡等其他方法的最基本形式在1958年得到了極大的發展,而諸如支持向量機(SVM)等其他方法則是最近的。

由於監督學習的可用方法很多,因此經常會提出以下問題:**最佳模型是什麼?**眾所周知,這個問題很難回答,因為正如喬治·博克斯(George Box)所說的那樣,所有模型都是錯誤的,但有些模型是有用的。特別是,模型的實用性主要取決於手頭的數據。因此,這個問題沒有普遍的答案。以下是一個更容易回答的問題:什麼是最受歡迎的模型?。這將是本文的關注點。

衡量機器學習模型的受歡迎程度

出於本文的目的,我將使用一種常用方法來定義流行度。更準確地說,我將使用許多提及個別監督學習模型的科學出版物來代替受歡迎程度。當然,這種方法有一些局限性:

流行的概念可能比出版物的數量更準確。例如,批評某種模型的出版物並不一定暗示該模型很受歡迎。該分析受所用搜索詞的影響。為了確保高度的特異性,我沒有考慮模型縮寫,這就是為什麼我可能未檢索到所有潛在匹配的原因。此外,對於那些也被分析中未考慮的搜索詞引用的模型,靈敏度可能較低。文獻資料庫並不完美:有時,出版物存儲的原數據不正確(例如,年份不正確),或者出版物可能重複。因此,可以預料到出版頻率中會有一些噪聲。對於這一部分,我進行了兩次分析。第一種分析是對發布頻率的縱向分析,而第二種分析則比較了跨不同領域與機器學習模型相關的發布總數。

對於第一個分析,我通過從Google Scholar中抓取數據來確定了出版物的數量,Google Scholar考慮了科學出版物的標題和摘要。為了確定與個別監督學習方法相關的出版物數量,我確定了1950年至2017年之間的Google Scholar命中次數。眾所周知,由於從Google Scholar抓取數據非常困難,因此本文參考ScrapeHero提供的有用建議來收集數據。

在分析中包括以下13種監督方法:神經網絡,深度學習,SVM,隨機森林,決策樹,線性回歸,邏輯回歸,泊松回歸,嶺回歸,套索回歸,k近鄰,線性判別分析和對數線性模型。其中,對於套索回歸,搜索時考慮了搜索套索回歸和套索模型。對於最近方法,搜索時術語有k-nearest neighbor和k-nearest neighbour,得到的數據集表示從1950年到現在,每個監督模型相關的出版物的數量。

從1950年開始至今使用監督模型

為了分析縱向數據,我將區分兩個時期:機器學習的早期階段(1950年至1980年),在那兒只有很少的模型可用;而形成性的年份(1980年到現在),對機器學習的興趣激增,很多時期開發了新模型。請注意,在以下可視化中,僅顯示最相關的方法。

早期:線性回歸的優勢

從圖1中可以看出,線性回歸是1950年至1980年之間的主要方法。相比之下,其他機器學習模型在科學文獻中很少被提及。但是,從1960年代開始,我們可以看到神經網絡和決策樹的普及開始增長。我們還可以看到,邏輯回歸尚未得到廣泛應用,在1970年代末,提及的數量僅略有增加。

!

成長年:神經網絡的多元化和興起

圖2表明,從1980年代後期開始,科學出版物中提到的監督模型變得更加多樣化。重要的是,直到2013年,科學文獻中提到的機器學習模型的比率一直在穩定增長。該圖尤其表明了線性回歸,邏輯回歸和神經網絡的普及。正如我們之前所看到的,線性回歸在1980年之前已經很流行。但是,在1980年,神經網絡和邏輯回歸的普及開始迅速增長。當Logistic回歸的普及率在2010年達到頂峰時,該方法幾乎與線性回歸一樣流行,但神經網絡和深度學習(曲線神經網絡/深度學習)的共同普及 圖2)在2015年甚至超過了線性回歸的流行程度。

神經網絡之所以廣受青睞,是因為它們在諸如圖像識別(ImageNet,2012),面部識別(DeepFace,2014)和遊戲(AlphaGo,2016)等機器學習應用中取得了突破。Google Scholar的數據表明,在最近幾年中,科學文章中提到神經網絡的頻率略有下降(圖2中未顯示)。這是有可能的,因為術語深度學習(多層神經網絡)已在一定程度上取代了術語神經網絡的使用。使用Google趨勢可以找到相同的結果。

剩下的,較少流行的監督方法是決策樹和SVM。與排名前三的方法相比,提及這些方法的比率明顯較小。另一方面,文獻中提到這些方法的頻率似乎也較少波動。值得注意的是,決策樹和SVM的流行度都沒有下降。這與其他方法(例如線性和邏輯回歸)相反,後者在過去幾年中被提及的數量已大大減少。在決策樹和SVM之間,提到的SVM似乎顯示出更有利的增長趨勢,因為SVM僅在發明15年後就成功超過了決策樹。

所考慮的機器學習模型的提及次數在2013年達到頂峰(589,803個出版物),此後略有下降(2017年為462,045個出版物)。

監督學習模型在不同領域的普及

在第二個分析中,我想調查不同的社區是否依賴於不同的機器學習技術。為此,我查詢了三個用於科學出版物的存儲庫:用於普通出版物的Google Scholar,用於計算機科學出版物的dblp,以及用於生物醫學科學的PubMed。在這三個存儲庫中,我統計了13種機器學習模型的命中頻率。結果如圖3所示。

圖3證明了許多方法是特定於各個領域的。接下來,讓我們分析每個領域中最受歡迎的模型。

整體使用監督學習模型

根據Google Scholar表明,這是五個最常用的監督模型:

線性回歸: 3,580,000(34.3%)篇論文**邏輯回歸:**包含2,330,000(22.3%)篇論文神經網絡: 1,750,000(16.8%)篇論文決策樹: 875,000(8.4%)篇論文**支持向量機:**包含684,000(6.6%)篇論文總體而言,線性模型顯然佔主導地位,佔監督模型命中率的50%以上。非線性方法也不甘落後:神經網絡在所有論文中佔16.8%,位居第三,其次是決策樹(論文佔8.4%)和支持向量機(論文佔6.6%)。

模型在生物醫學科學中的使用

根據PubMed的說法,生物醫學中最流行的五個機器學習模型是:

邏輯回歸: 229,956(54.5%)篇論文線性回歸: 84,850(20.1%)篇論文Cox回歸: 38,801(9.2%)篇論文神經網絡: 23,883(5.7%)篇論文泊松回歸: 12,978(3.1%)篇論文在生物醫學科學中,我們看到與線性模型相關的提及數量過多:五種最流行的方法中有四種是線性的。這可能是由於兩個原因。首先,在醫療環境中,樣本數量通常太少而無法擬合複雜的非線性模型。其次,解釋結果的能力對於醫療應用至關重要。由於非線性方法通常較難解釋,因此它們不適合醫療應用,因為僅靠高預測性能通常是不夠的。

Logistic回歸在PubMed數據中的流行可能是由於大量發表臨床研究的出版物所致。在這些研究中,經常使用邏輯回歸分析分類結果(即治療成功),因為它非常適合於解釋特徵對結果的影響。請注意,Cox回歸在PubMed數據中非常流行,因為它經常用於分析Kaplan-Meier生存數據。

模型在計算機科學中的使用

從dblp檢索的計算機科學參考書目中,五個最受歡迎的模型是:

神經網絡: 63,695(68.3%)篇論文深度學習: 10,157(10.9%)篇論文支持向量機: 7,750(8.1%)篇論文決策樹: 4,074(4.4%)篇論文k近鄰: 3,839(2.1%)篇論文計算機科學出版物中提到的機器學習模型的分布是非常不同的:大多數出版物似乎都涉及到最近的非線性方法(例如神經網絡,深度學習和支持向量機)。如果我們包括深度學習,那麼在檢索到的計算機科學出版物中,有超過四分之三涉及神經網絡。

機器學習研究模型和現實應用模型的差異

圖4總結了文獻中提到的參數(包括半參數)模型和非參數模型的百分比。條形圖表明,在機器學習研究中研究的模型(由計算機科學出版物證明)與所應用的模型類型(由生物醫學和整體出版物證明)之間存在很大差異。儘管超過90%的計算機科學出版物都涉及非參數模型,但大約90%的生物醫學出版物都涉及參數模型。這表明機器學習研究主要集中在最先進的方法上,例如深度神經網絡,而機器學習的用戶通常依賴於更具可解釋性的參數化模型。

總結

對科學文獻中有監督學習模型的流行度分析表明了人工神經網絡的高度流行。但是,我們也看到在不同領域中使用了不同類型的機器學習模型。特別是生物醫學領域的研究人員仍然嚴重依賴參數模型。但有趣的是,這種情況逐漸在發生改變,隨著可解釋模型的研究更加深入,更複雜的模型一定會在生物醫學領域得到廣泛應用。

原文連結:https://www.kdnuggets.com/2018/12/supervised-learning-model-popularity-from-past-present.html?spm=a2c4e.10696291.0.0.354819a4R0jQUU

相關焦點

  • 深度學習模型那麼多,科學研究選哪個?
    作為一種對圖像數據非常有用的歸納偏差,能夠幫助更加有效地學習一些好特徵以應用層面來分,卷積神經網絡派生了圖像分類、目標檢測、語義分割和實例分割、圖像超解析度、圖像配準、姿勢估計......相比於傳統的圖模型,圖網絡最大的優勢在於它不只可以對一個節點進行語義表示。可以把圖神經網絡看做將深度學習技術應用到符號表示的圖數據上,或者說是從非結構化數據擴展到了結構化數據。應用特點:數據具有固有的圖形結構特點,能夠在圖結構上學習到一些函數,無論是某些頂點,還是全局都可以。對隨時間演變的圖結構執行預測可以使用時空圖神經網絡。
  • 谷歌NLP新方法:無需翻譯,質量優於無監督翻譯模型
    例如,將相同的句子分配給不同的翻譯者,最終翻譯出來的內容通常是有差別的,這樣就得到一個豐富的解釋集,在複述任務中可能會非常有用。儘管許多研究人員已經開發出基於翻譯的自動複述方法,但顯然人類並不需要翻譯才能解釋句子。基於這一觀察結果,Google Research的兩位研究人員最近提出了一種新的複述技術,可以不依賴機器翻譯的方法。
  • 越大的自監督模型,半監督學習需要的標籤越少
    使用10%的標籤,本文的方法可以達到77.5%的top-1準確率,優於使用100%標籤的標準監督訓練。「無監督預訓練、監督微調」範式充分利用少量標記示例和大量未標記示例進行學習是機器學習的一個長期存在的問題。人們曾經提出一種半監督學習來試圖解決這個問題,其中涉及無監督或自監督的預訓練,然後進行有監督的微調。
  • 一文概述 2018 年深度學習 NLP 十大創新思路
    1)無監督的機器翻譯翻譯(Unsupervised MT)ICLR 2018 收錄的兩篇關於無監督機器翻譯翻譯的論文(https://arxiv.org/abs/1710.11041)中,無監督機器翻譯的整個過程的表現好得讓人感到驚訝,但結果卻不如監督系統。
  • 盤點金融領域裡常用的深度學習模型
    我們跟隨 Sonam Srivastava 的分析,並展望深度學習在金融領域的運用前景。雖然金融是計算密集型最多的領域,但廣泛使用的金融模型:監督和無監督模型、基於狀態的模型、計量經濟學模型甚至隨機模型都受到過度擬合和啟發式問題帶來的影響,抽樣結果很差。因為金融生態圈異常複雜,其非線性充斥著大量的相互影響的因素。
  • 一文帶你深入了解,什麼是深度學習及其工作原理
    在傳統的機器學習中,學習過程是受監督的,並且程式設計師在告訴計算機應尋找哪種類型的事物以決定圖像包含狗還是不包含狗時,必須非常具體。這是一個費力的過程,稱為特徵提取,計算機的成功率完全取決於程式設計師為「狗」準確定義特徵集的能力。深度學習的優勢是程序無需監督即可自行構建功能集。無監督學習不僅更快,而且通常更準確。
  • 金融中的三種深度學習用例及這些模型優劣的證據
    我們跟隨 Sonam Srivastava 的分析,並展望深度學習在金融領域的運用前景。雖然金融是計算密集型最多的領域,但廣泛使用的金融模型:監督和無監督模型、基於狀態的模型、計量經濟學模型甚至隨機模型都受到過度擬合和啟發式問題帶來的影響,抽樣結果很差。因為金融生態圈異常複雜,其非線性充斥著大量的相互影響的因素。
  • Google的深度學習強在哪?谷歌首席科學家說
    深度學習一開始從少數的產品組開始,一段時間後反響很好,能解決之前不能做的,就更多的團隊開始採納。使用深度學習的產品有:安卓,Apps,藥品發現,Gmail,圖片理解,地圖,自然語言,圖片,機器人,語音翻譯等。
  • 一場突如其來的討論:到底什麼是深度學習?SVM其實也是深度學習嗎?
    不過這個說法在我看來太過狹隘了,它最多是「我們現在做的深度學習」的描述,而不是對深度學習本身的定義。比如說,如果你有一個卷積網絡模型,然後你用 ADMM 訓練它的權重,它就不是深度學習了嗎?一個自己學習特徵的 HMAX 模型就不是深度學習了嗎?甚至於,用貪婪算法逐層訓練的深度神經網絡就不是深度學習了嗎?要我說的話,它們都是深度學習。
  • 普林,DeepMind新研究:結合深度學習符號回歸,深度模型中看見宇宙
    符號模型緊湊,具備可解釋性和良好的泛化能力,但很難處理高維機器學習問題;深度模型擅長在高維空間中學習,但泛化性和可解釋性卻很差。那麼有沒有什麼辦法可以取二者之所長呢?這項研究做到了。如何將深度模型轉換為符號方程?
  • 普林、DeepMind新研究:結合深度學習和符號回歸,從深度模型中看見...
    符號模型緊湊,具備可解釋性和良好的泛化能力,但很難處理高維機器學習問題;深度模型擅長在高維空間中學習,但泛化性和可解釋性卻很差。那麼有沒有什麼辦法可以取二者之所長呢?這項研究做到了。如何將深度模型轉換為符號方程?來自普林斯頓、DeepMind 等機構的研究人員提出了一種解決方案:結合深度學習和符號回歸實現這一目標。
  • 102個模型、40個數據集,這是你需要了解的機器翻譯SOTA論文
    統計機器翻譯:將源語言句子分割為短語片段,利用基於雙語語料庫學習到的短語翻譯知識,將源語言短語轉化為合適的目標短語。最後對目標短語片段進行合理的調序,並生成完整的譯文。神經機器翻譯:利用深度神經網絡將原語言句子編碼為一個低維向量,然後再直接解碼為目標語言句子。其實早幾年我們可能感覺機器翻譯還需要大量的人工調整,包括表達方式、專業詞彙、句式結構等等。
  • UT Austin博士生沈彥堯:基於深度主動學習的命名實體識別 | 分享總結
    對比監督學習、半監督學習和主動學習的概念圖例,可以看到:在主動學習中,模型 (learner) 會主動向 worker 提供想標記的數據,而非由 worker 提供。下圖最後一欄中從模型 (learner) 到 worker 的藍線即為主動學習的主動部分,在該階段模型會主動甄別需要標記的數據,判斷哪些樣本值得學習,哪些不值得學習。
  • 基於PaddlePaddle的機器翻譯教程 | 深度學習基礎任務系列
    機器翻譯即實現從源語言到目標語言轉換的過程,是自然語言處理的重要研究領域之一。本文將帶領大家了解經典的端到端神經網絡機器翻譯Seq2Seq模型,以及如何用PaddlePaddle來訓練。如果想要實踐效果更佳的翻譯模型,請參考GitHub模型庫中Transformer實現。
  • 移動深度學習:人工智慧的深水區
    原標題:移動深度學習:人工智慧的深水區隨著5G商用大規模落地,以及智慧型手機硬體性能越來越強、AIoT設備的快速普及,基於雲-邊緣-端算法和算力結構的移動端人工智慧,仍有非常大的發展空間,亟待我們快速理解移動端深度學習的原理,掌握如何將其應用到實際業務中。
  • ...2016:利用深度學習開發人工智慧應用的基本要點(含唯一的中文版...
    從傳統算法到小型神經網絡、中型神經網絡最後演化為現在的大型神經網絡。吳恩達先講述了常見的深度學習模型,然後再著分析端到端學習的具體應用。二、主要的深度學習模型普通神經網絡順序模型   (1D  順序)  RNN,  GRU,  LSTM,  CTC,  注意力模型圖像模型  2D 和  3D 卷積神經網絡先進/未來 技術:無監督學習
  • 圖靈獎得主Hinton和 LeCun最新演講:深度學習如何繼續革命?
    它們是神經活動的向量(big vectors);它們對神經活動的其他載體有直接的因果影響;這些向量是從數據中學到的。由此也導致了兩種讓計算機完成任務的方式。首先是智能設計:有意識地精確計算出你將如何操縱符號表示來執行任務,然後極其詳細地告訴計算機具體要做什麼。其次是學習:向計算機展示大量輸入和所需輸出的例子。讓計算機學習如何使用通用的學習程序將輸入映射到輸出。
  • PNAS 「深度學習的科學」論文合集導讀
    在圖像處理、語音和視頻處理、機器視覺、自然語言處理和經典的雙人遊戲中,特別是在過去的十年中,隨著在一系列公共組織的挑戰問題(例如圍棋、圖像分類)上,機器學習的表現超出預期記錄,相關技術得到了迅速的推進。在許多這些挑戰中,記錄現在已經達到或超過了人類的水平。
  • 自監督學習知識遷移
    通過對前置任務的預訓練,希望模型能夠學習到有用的表示。在前置任務上訓練的模型可能會學習到對通用視覺識別無用的額外知識。如今,最後一層的任務特定層會被忽略,實際只取權重或特徵到一定的卷積層。在這種標籤上訓練的模型一般都會有一個表示空間,對語義相似的圖像進行分組。因此,對於自監督學習中的前置任務,目標是隱式學習一個使相同類別圖像相似而不同類別圖像不相似的度量。因此,如果我們能夠以某種方式將語義相關的圖像編碼到相同的標籤上,我們就可以對學習的表示提供可靠的估計。
  • AI 初學者入門指南:深度學習的五級分類
    他表示,該分類法主要針對深度學習,希望對 AI 從業者來說更細緻、更有用。它能幫我們看清楚 AI 目前在哪個階段,以及將來會走向何方。Perez 表示:「對當前 AI 技術進行評估,我們缺少一個好的概念框架。這可能只是由於大多數 AI 評論人無法跟上最新的深度學習進展——需要讀的東西太多,而且最新發現不停刷新我們現在對 AI 的理解。」