深度學習 vs. 概率圖模型 vs. 邏輯學

2020-11-22 CSDN技術社區

【編者按】在上個月發表博客文章《深度學習 vs. 機器學習 vs. 模式識別》之後,CMU博士、MIT博士後及vision.ai聯合創始人Tomasz Malisiewicz這一次帶領我們回顧50年來人工智慧領域三大範式(邏輯學、概率方法和深度學習)的演變歷程。通過本文我們能夠更深入地理解人工智慧和深度學習的現狀與未來。

以下為正文:

今天,我們一起來回顧過去50年人工智慧(AI)領域形成的三大範式:邏輯學、概率方法和深度學習。如今,無論依靠經驗和「數據驅動」的方式,還是大數據、深度學習的概念,都已經深入人心,可是早期並非如此。很多早期的人工智慧方法是基於邏輯,並且從基於邏輯到數據驅動方法的轉變過程受到了概率論思想的深度影響,接下來我們就談談這個過程。

本文按時間順序展開,先回顧邏輯學和概率圖方法,然後就人工智慧和機器學習的未來走向做出一些預測。


圖片來源:Coursera的概率圖模型課

1. 邏輯和算法 (常識性的「思考」機)

許多早期的人工智慧工作都是關注邏輯、自動定理證明和操縱各種符號。John McCarthy於1959年寫的那篇開創性論文取名為《常識編程》也是順勢而為。

如果翻開當下最流行的AI教材之一——《人工智慧:一種現代方法》(AIMA),我們會直接注意到書本開篇就是介紹搜索、約束滿足問題、一階邏輯和規劃。第三版封面(見下圖)像一張大棋盤(因為棋藝精湛是人類智慧的標誌),還印有阿蘭·圖靈(計算機理論之父)和亞里斯多德(最偉大的古典哲學家之一,象徵著智慧)的照片。


AIMA 的封面,它是CS專業本科AI課程的規範教材

然而,基於邏輯的AI遮掩了感知問題,而我很早之前就主張了解感知的原理是解開智能之謎的金鑰匙。感知是屬於那類對於人很容易而機器很難掌握的東西。(延伸閱讀:《計算機視覺當屬人工智慧》,作者2011年的博文)邏輯是純粹的,傳統的象棋機器人也是純粹算法化的,但現實世界卻是醜陋的,骯髒的,充滿了不確定性。

我想大多數當代人工智慧研究者都認為基於邏輯的AI已經死了。萬物都能完美觀察、不存在測量誤差的世界不是機器人和大數據所在的真實世界。我們生活在機器學習的時代,數位技術擊敗了一階邏輯。站在2015年,我真是替那些死守肯定前件拋棄梯度下降的傻子們感到惋惜。

邏輯很適合在課堂上講解,我懷疑一旦有足夠的認知問題成為「本質上解決」,我們將看到邏輯學的復甦。未來存在著很多開放的認知問題,那麼也就存在很多場景,在這些場景下社區不用再擔心認知問題,並開始重新審視這些經典的想法。也許在2020年。

延伸閱讀:《邏輯與人工智慧》斯坦福哲學百科全書

2. 概率,統計和圖模型(「測量」機)

概率方法在人工智慧是用來解決問題的不確定性。《人工智慧:一種現代方法》一書的中間章節介紹「不確定知識與推理」,生動地介紹了這些方法。如果你第一次拿起AIMA,我建議你從本節開始閱讀。如果你是一個剛剛接觸AI的學生,不要吝嗇在數學下功夫。


來自賓夕法尼亞州立大學的概率論與數理統計課程的PDF文件

大多數人在提到的概率方法時,都以為只是計數。外行人很容易想當然地認為概率方法就是花式計數方法。那麼我們簡要地回顧過去統計思維裡這兩種不相上下的方法。

頻率論方法很依賴經驗——這些方法是數據驅動且純粹依靠數據做推論。貝葉斯方法更為複雜,並且它結合數據驅動似然和先驗。這些先驗往往來自第一原則或「直覺」,貝葉斯方法則善於把數據和啟發式思維結合做出更聰明的算法——理性主義和經驗主義世界觀的完美組合。

最令人興奮的,後來的頻率論與貝葉斯之爭,是一些被稱為概率圖模型的東西。該類技術來自計算機科學領域,儘管機器學習現在是CS和統計度的重要組成部分,統計和運算結合的時候它強大的能力才真正釋放出來。

概率圖模型是圖論與概率方法的結合產物,2000年代中期它們都曾在機器學習研究人員中風靡一時。當年我在研究生院的時候(2005-2011),變分法、Gibbs抽樣和置信傳播算法被深深植入在每位CMU研究生的大腦中,並為我們提供了思考機器學習問題的一個極好的心理框架。我所知道大部分關於圖模型的知識都是來自於Carlos Guestrin和Jonathan Huang。Carlos Guestrin現在是GraphLab公司(現改名為Dato)的CEO,這家公司生產大規模的產品用於圖像的機器學習。Jonathan Huang現在是Google的高級研究員。

下面的視頻儘管是GraphLab的概述,但它也完美地闡述了「圖形化思維」,以及現代數據科學家如何得心應手地使用它。Carlos是一個優秀的講師,他的演講不局限於公司的產品,更多的是提供下一代機器學習系統的思路。


概率圖模型的計算方法介紹(視頻和PPT下載)

Dato CEO,Carlos Guestrin教授

如果你覺得深度學習能夠解決所有機器學習問題,真得好好看看上面的視頻。如果你正在構建一套推薦系統,一個健康數據分析平臺,設計一個新的交易算法,或者開發下一代搜尋引擎,圖模型都是完美的起點。

延伸閱讀:

置信傳播算法維基百科

圖模型變分法導論

Michael Jordan的技術主頁(Michael Jordan系推理和圖模型的巨頭之一)

3. 深度學習和機器學習(數據驅動機)

機器學習是從樣本學習的過程,所以當前最先進的識別技術需要大量訓練數據,還要用到深度神經網絡和足夠耐心。深度學習強調了如今那些成功的機器學習算法中的網絡架構。這些方法都是基於包含很多隱藏層的「深」多層神經網絡。註:我想強調的是深層結構如今(2015年)不再是什麼新鮮事。只需看看下面這篇1998年的「深層」結構文章。


LeNet-5,Yann LeCun開創性的論文《基於梯度學習的文檔識別方法》

你在閱讀LeNet模型導讀時,能看到以下條款聲明:

要在GPU上運行這個示例,首先得有個性能良好的GPU。GPU內存至少要1GB。如果顯示器連著GPU,可能需要更多內存。

當GPU和顯示器相連時,每次GPU函數調用都有幾秒鐘的時限。這麼做是必不可少的,因為目前的GPU在進行運算時無法繼續為顯示器服務。如果沒有這個限制,顯示器將會凍結太久,計算機看上去像是死機了。若用中等質量的GPU處理這個示例,就會遇到超過時限的問題。GPU不連接顯示器時就不存在這個時間限制。你可以降低批處理大小來解決超時問題。

我真的十分好奇Yann究竟是如何早在1998年就把他的深度模型折騰出一些東西。毫不奇怪,我們大伙兒還得再花十年來消化這些內容。

更新:Yann說(通過Facebook的評論)ConvNet工作可以追溯到1989年。「它有大約400K連接,並且在一臺SUN4機器上花了大約3個星期訓練USPS數據集(8000個訓練樣本)。」——LeCun


深度網絡,Yann1989年在貝爾實驗室的成果

註:大概同一時期(1998年左右)加州有兩個瘋狂的傢伙在車庫裡試圖把整個網際網路緩存到他們的電腦(他們創辦了一家G打頭的公司)。我不知道他們是如何做到的,但我想有時候需要超前做些並不大規模的事情才能取得大成就。世界最終將迎頭趕上的。

延伸閱讀:

Y.LeCun, L.Bottou, Y.Bengio, and P.Haffner.Gradient-based learning applied to document recognition.Proceedings of the IEEE, November 1998.

Y.LeCun, B.Boser, J.S.Denker, D.Henderson, R.E.Howard, W.Hubbard and L.D.Jackel: Backpropagation Applied to Handwritten Zip Code Recognition, Neural Computation, 1(4):541-551, Winter 1989

Deep Learning code: Modern LeNet implementation in Theano and docs.

結論

我沒有看到傳統的一階邏輯很快捲土重來。雖然在深度學習背後有很多炒作,分布式系統和「圖形思維」對數據科學的影響更可能比重度優化的CNN來的更深遠。深度學習沒有理由不和GraphLab-style架構結合,未來幾十年機器學習領域的重大突破也很有可能來自這兩部分的結合。

原文連結:Deep Learning vs Probabilistic Graphical Models vs Logic (翻譯/zhyhooo 審校/王瑋 責編/周建丁)

本文為CSDN編譯整理,未經允許不得轉載,如需轉載請聯繫market#csdn.net(#換成@)

相關焦點

  • Keras vs PyTorch:誰是第一深度學習框架?
    三、Keras vs PyTorch:易用性和靈活性  Keras 和 PyTorch 的運行抽象層次不同。  Keras 是一個更高級別的框架,將常用的深度學習層和運算封裝進乾淨、樂高大小的構造塊,使數據科學家不用再考慮深度學習的複雜度。
  • CNN vs RNN vs ANN——3種神經網絡分析模型,你pick誰?
    以下是研究人員和專家們傾向於選用深度學習而非機器學習的兩個關鍵原因:決策邊界特徵工程那讓我來解釋一下吧!機器學習vs.深度學習:決策邊界每種機器學習算法都會學習從輸入到輸出的映射。機器學習vs.深度學習:特徵工程特徵工程是模型構建過程中的關鍵步驟。此過程分為兩步:1. 特徵提取(Feature extraction)2. 特徵選擇(Feature selection)在特徵提取中,我們提取問題陳述中所需的所有特徵;在特徵選擇中,我們選擇能夠提高機器學習或深度學習模型性能的重要特徵。
  • 深度學習概述:NLP vs CNN
    最初的人工智慧和深度學習算法比較簡單,就像我們所知的簡單感知器模型和單層神經網絡一樣。隨著時間的推移和更加專注的研究,我們已經擁有了具有多層結構的複雜神經網絡。一些公司在他們的軟體和服務中使用了LSTMs、GANs、變分自編碼器等算法。本文在以下部分列出了人工智慧領域當前最熱門的技術以及正在研究這些熱門技術的公司。
  • Keras vs PyTorch,哪一個更適合做深度學習?
    選自Medium作者:Karan Jakhar機器之心編譯參與:小舟、魔王如何選擇工具對深度學習初學者是個難題。當你決定學習深度學習時,有一個問題會一直存在——學習哪種工具?深度學習有很多框架和庫。這篇文章對兩個流行庫 Keras 和 Pytorch 進行了對比,因為二者都很容易上手,初學者能夠輕鬆掌握。那麼到底應該選哪一個呢?本文分享了一個解決思路。
  • 今日Paper|深度循環神經網絡;PoseNet3D;AET vs. AED;光場視差估計等
    AED:無監督表示學習通過自編碼變換而不是自編碼數據基於注意力的視點選擇網絡用於光場視差估計基於CNN的中文lexicon rethinking NER模型使用混合精度的方法在GPU集群上進行深度循環神經網絡的訓練論文名稱:Training
  • 一文探討可解釋深度學習技術在醫療圖像診斷中的應用
    因此,在醫學、金融、自動駕駛等領域中深度學習方法尚未實現廣泛的推廣應用。可解釋性是指當人們在了解或解決一件事情的過程中,能夠獲得所需要的足夠的可以理解的信息。深度學習方法的可解釋性則是指能夠理解深度學習模型內部機制以及能夠理解深度學習模型的結果。關於 「可解釋性」 英文有兩個對應的單詞,分別是 「Explainability」 和「Interpretability」。
  • Brain:可解釋的深度學習阿爾茨海默病診斷框架的設計及檢驗
    本研究報告了一種可解釋的深度學習疾病分類策略,該策略從MRI、年齡、性別和Mini-精神狀態檢查分數的多模態數據中勾勒出獨特的AD疾病特徵。研究框架與一個完整的卷積網絡相聯繫,該網絡可以構建從局部大腦結構到多層感知器的高解析度疾病概率圖,並在診斷過程中對AD風險進行精確,直觀的可視化顯示。
  • 深度學習時代的圖模型,清華發文綜述圖網絡
    選自arXiv作者:張子威、崔鵬、朱文武機器之心編譯參與:路、曉坤深度學習在多個領域中實現成功,如聲學、圖像和自然語言處理。但是,將深度學習應用於普遍存在的圖數據仍然存在問題,這是由於圖數據的獨特特性。近期,該領域出現大量研究,極大地提升了圖分析技術。清華大學朱文武等人綜述了應用於圖的不同深度學習方法。
  • 論強化學習和概率推斷的等價性:一種全新概率模型
    概率圖模型(PGM)為機器學習研究者提供了一種廣泛適用的工具(Koller 和 Friedman,2009):該模型用概率理論表達整個學習問題,為原則目標的設計提供了一個一致、靈活的框架,建立了反映世界因果結構的模型,並允許針對廣泛的問題領域部署一組通用的推理方法。
  • 博弈論速成指南:那些融入深度學習的經典想法和新思路
    博弈論的定義有很多,但我認為以下這個定義非常有幫助,儘管它過分簡潔:博弈論是具備激勵機制的概率。遊戲在人工智慧發展過程中起到關鍵作用。對於初學者而言,遊戲環境在強化學習或模仿學習等領域中逐漸成為流行的訓練機制。理論上,任何多智能體 AI 系統都要經歷玩家之間的遊戲化交互。構建遊戲原則的數學分支正是博弈論。
  • 英超直播:維拉vs紐卡斯爾,伯恩利vs埃弗頓,曼城vs富勒姆
    維拉vs紐卡斯爾維拉近5場比賽輸掉4場,球隊打法逐漸被英超各隊所熟悉,而且陣容深度不高,尤其是一些球員還要參加國家隊比賽周,在疲勞加傷病等困擾後,成績下滑就是這些中遊隊伍必然的結果。比如中場大將巴克利在布萊頓的比賽中受傷就對球隊的戰力造成極大的影響。
  • 為什麼深度模型在 CV 領域好使,但用在圖網絡上就這麼難呢?
    為什麼深度模型在 CV 領域好使,但用在圖網絡上就這麼難呢?深度學習,特別是 CV 領域的模型,往往有數十上百層,與此相比,在圖「深度學習」中(大部分工作都 ≤5 層,談不上深,所以加個引號吧),大部分模型架構都是淺層的,設計深度模型到底有沒有用呢?
  • 【深度】AI領域三大範式的發展簡史
    導讀: 過去50年人工智慧(AI)領域形成的三大範式:邏輯學、概率方法和深度學習。如今,無論依靠經驗和「數據驅動」的方式,還是大數據、深度學習的概念,都已經深入人心,可是早期並非如此。   今天,我們一起來回顧過去50年人工智慧(AI)領域形成的三大範式:邏輯學、概率方法和深度學習。
  • 騰訊優圖推出卷積神經網絡深度學習算法模型
    近年來機器學習算法在醫療領域的大展拳腳(糖尿病視網膜病變/皮膚病/甲狀腺結節等),基於卷積神經網絡算法(機器學習算法一類)的肺結節診斷模型有望解決這一難題。(1−PN),其中P代表結節惡性的概率,N代表結節的數目。
  • 用概念激活向量 (CAVs) 理解深度網絡
    可解釋性仍然是現代深度學習應用的最大挑戰之一。最近在計算模型和深度學習研究方面的進展,使創建高度複雜的模型成為可能,這些模型可以包括數千個隱藏層和數千萬個神經元。雖然創建令人驚訝的高級的深度神經網絡模型相對簡單,但理解這些模型如何創建和使用知識仍然是一個挑戰。
  • 3D重建:硬派幾何求解vs深度學習打天下?
    前面提到,3D 物體的表示方法一般有深度圖(depth), 點雲(point cloud), 體素(voxel), 網格(mesh) 四種。所以深度學習也可以依次分為學習圖像到深度的表示、圖像到體素的表示等,不過也有研究試圖融合多種表示。由於對輸出數據形式有要求,大部分研究使用了decoder-encoder 結構的神經網絡,比如3D-R2N2 網絡[1](見圖7)。
  • 氣溶膠細模態比例參數反演的深度學習遙感方法 | 微課堂
    中國科學院空天信息創新研究院(以下簡稱「空天院」)遙感衛星應用國家工程實驗室李正強研究員團隊,多年關注氣溶膠多參數的衛星遙感模型研究。如圖1所示,科研人員提出了一種全連接神經網絡(FCNN)和卷積神經網絡(CNN)組合的深度學習方法(Neural Network based AEROsol retrieval,簡稱NNAero),解決定量化信息留存和神經網絡通用化處理之間的差異等若干技術問題,通過NASA的AERONET和空天院的我國自主SONET地基氣溶膠觀測網數據開展MODIS氣溶膠反演模型訓練,根據氣溶膠微物理光學特性充分利用光譜
  • 掌握深度學習,數據不足也能進行圖像分類!
    在本文中,小芯將示範如何在數據不足的情況下應用深度學習。現已創建特製汽車和巴士分類器兩個數據集,每個數據集包含100個圖像。其中,訓練集有70個圖像,驗證集有30個。挑戰1. 視點變化:基於相機,單一對象實例可以從多個視角聚焦。2. 尺度變化:視覺分類常常存在尺度變化(這裡的尺度指的是現實世界中的物體的大小,而不僅僅就圖像而言)。
  • UFC 245:奧爾多vs莫賴斯,菲波vs彼得·嚴
    比賽名稱:UFC 245:Usman vs.傑曼·德·蘭達米(Germaine De Randamie)(#1) 【雛量級比賽】 何塞·奧爾多(Jose Aldo)(#3) vs. 馬龍·莫賴斯(Marlon Moraes)(#1) 【雛量級比賽】 彼得·嚴(Petr Yan)(#4) vs.
  • 使用python+sklearn實現概率PCA和因子分析進行模型選擇
    概率PCA和因子分析都是概率模型,新數據的似然性(likelihood)可用於模型選擇和協方差估計