Yann LeCun「隔紙對話」黃鐵軍:圖靈機上的深度學習能模擬世界嗎?(贈書)

2021-12-26 AI科技評論

作者 | 青暮

東京大學編寫的考試人工智慧程序「東大」得到了好於80%考生的成績,這說明日本高等教育的入學考試跟機器的智力一樣膚淺。

索菲亞機器人算不上人工智慧,只是一個完成度很高的塑料製品,並不比東京大學的「東大」更聰明。

如果有一家公司宣稱實現了人類智能,那不是騙子,就是傻子。

上述言論每一句都毫不留情,透著耿直的味道。他的推特,也早就成了AI圈吃瓜群眾的快樂源泉。

無論是批判人工智慧無腦炒作,還是吐槽AI社區不夠開放是歷史倒退,亦或時不時發個思維小遊戲逗樂自己,響應推特朋友圈上的AI joke,要麼就給自己實驗室的工作打打廣告.只要逛逛他的推特,你就能看到一個立體的他。

作為一名知名學者,如此頻繁而直言不諱地評論公共事件,自然不是為了立人設,他只是發自內心。不懼網絡罵戰的他,亦曾經被偏激的網友群體氣的宣布推出推特。但不出數周,我們又再次刷到他的推文更新。

而在這本300頁的新書中,你會發現,推特上的Yann LeCun,也只是他的人格投影。

Yann LeCun

《浪潮之巔》作者吳軍如此評價他的性格:好學、廣博、特立獨行、執著,這些個人特質在他的自傳《科學之路》中展露無遺。

通過這本書,我們才感受到,在成為「AI網紅」之前,Yann LeCun默默地為深度學習堅持數十年所付出的艱辛。

「儘管深度學習近幾年一直是關注焦點,但熟悉深度學習歷史的人其實還是少數。」北京大學信息科學技術學院教授、智源研究院院長黃鐵軍說道。」讀完這本書後就會明白,深度學習的輝煌不是一夜造就的,任何一項技術在落地前,都需要經歷漫長的積累過程。」

回首歷史:難以撼動的偏見之牆

在學界普遍不看好神經網絡的時候,Yann LeCun聯合Geoffery Hinton、Yoshua Bengio,試圖讓人們認識到它的無限潛力。

但在這過程中,發論文首先就成為了一大阻力。包括ICML、CVPR、ICCV、NIPS(現名NeurIPS)等如今的AI頂級會議,當時均不歡迎深度學習論文。

幸好有CIFAR(加拿大高等研究院)對他們的支持,深度學習才開始在小小的講習班討論中逐步擴大它的影響力。Yann LeCun因此也對該研究院不吝溢美之詞,「CIFAR這個名字名副其實,就是'see far'的意思。」

在深度學習前後端(數據和算力)尚未成熟的年代裡,人們自然更加傾向於SVM等傳統機器學習方法。但Yann LeCun不止一次抱怨,人們拒絕深度學習的理由,實在令人無法接受。「他們說這項技術太複雜了,除了Yann LeCun沒人能讓他發揮作用。這簡直就是胡說八道。」LeCun還回憶道,Hinton亦曾經一度十分沮喪,感嘆道「今天是我40歲生日,我的職業生涯到頭了,什麼也做不成了。」

後來,為了讓人們相信深度學習的應用潛力,Hinton甚至用了一些「小聰明」。他將三名博士生分別送到了當時語音識別技術最領先的三家企業——微軟、谷歌、IBM,並讓他們在原有語音識別系統的中央模塊中使用深度學習。自然,系統的性能得到了極大提升。一年半後,這三家公司都部署了新的基於深度學習的語音識別系統。

在Yann LeCun的直白敘述中,我們感受更多的是他和合作夥伴對深度學習的堅持,而不是深度學習的科學創新。比如,對於CNN和反向傳播算法的發明過程,Yann LeCun完全沒有含糊其辭。

Geoffery Hinton開發的反向傳播算法,是基於他的導師Dave Rumelhart的工作。他在Rumelhart開發的無法運行的程序雛形上做了改進,成功實現了反向傳播算法。

Yann LeCun向Hinton的合作者Terry Sejnowski介紹他的HLM方法時,Hinton也早就實現了反向傳播算法,並已經開始著手應用研究。Sejnowski不久後告訴Hinton:「法國有個孩子在進行跟我們同樣的研究。」

Geoffrey Hinton(左)和Yann LeCun(右)

CNN的原型最初也是由日本科學家福島邦彥發明的,他根據貓的視覺系統方面的研究開發了一種視覺算法,其原理是:用一層簡單細胞檢測鋪滿圖像的小接收區域的簡潔模式,而下一層利用複雜細胞處理收集到的激活信息。

這其實和CNN的工作原理非常相似,但當時他的算法無法調整所有層級的參數。直到反向傳播算法的出現,這個問題才得以解決。

所以我們可以簡單得出,他們並不是發明深度學習的第一人嗎?但這種說法意義並不大,「人工智慧目前為止只是一門技術和工程學科,算不上科學。」黃鐵軍說道,「技術的進步是一步一步累進的,由於參與進來的學者會很多,因此每個人的貢獻相對而言比較難以評估。比如飛機是法國人還是美國人發明的,歷史上其實有過爭論。」

而科學是從0到1的飛躍過程,其發現者的貢獻就比較容易判斷。比如物理學的牛頓定律和相對論,其誕生基本就是一夜之間的事情。

Yann LeCun還提到了不少學者做出了接近反向傳播算法的成果,但這些工作都被用於其他領域,比如控制或微分方程數值解等,卻從沒想過用到神經網絡上。

「這三位學者對深度學習的貢獻在於,他們堅持了下來,打通了深度學習的所有技術鏈路,並對深度學習做了大量的增量改進,同時在合適的時間點,讓這一套技術發揮了很顯著的作用。從這個角度來看,他們獲得2018年圖靈獎,實至名歸。」黃鐵軍表示。

Yoshua Bengio(左)、Geoffrey Hinton(中)、Yann LeCun(右)因對深度學習的概念和工程突破方面的貢獻獲得2018年圖靈獎。

CIFAR的助推最終取得了效果,三位學者亦不顧各種阻撓,長年在NIPS上舉辦研討會。後來,深度學習文獻也得到了AI會議的承認。

在2011年,因GPU的算力極大提升,以及前期網際網路時代的數據積累,深度學習的革命開始啟動。

深度學習之道:從量變到質變

人工智慧作為一項工程技術,並不意味著比其他科學領域要低一階。「其實很多重大科技進展,在從0~1的過程中,並不是在科學理論指導完成的,而是各種嘗試探索的一個結果。」

掀起本輪人工智慧浪潮的深度神經網絡只是少見的成功個案,不過黃鐵軍認為,這就是技術探索的常態。

Yann LeCun 也曾說道,「在科學技術發展史上,工程創新往往首先出現,比如望遠鏡、蒸汽機、數字通信;而解釋其功能和局限性的理論往往出現得較晚,比如折射定律、熱力學和信息理論。」

在很多應用上,深度學習都達到了以前未能實現的效果,比如圖像識別、機器翻譯等等,人們也得以在探索智能本質的道路上更進一步。

深度學習一直被人詬病依賴大數據,但黃鐵軍不同意這個說法:「深度學習的脆弱性,根本原因還是數據不夠多。」從生物進化百萬年時間尺度來看,人類經歷了大量的「環境數據」訓練,並通過繁殖和遺傳讓這個訓練過程得以持續進行,最後才有了現代的智能人類大腦。人出生時,已經具備適應地球環境的先驗神經結構,這正是數百萬年的數據沉澱。

「環境才是智能的真正來源,不同環境孕育不同智能。人們往往把今天人工智慧系統的成功歸結為三個要素:大數據+大算力+強算法,數據就是環境的一種表現形式,是根本要素,另外兩個要素主要影響效率。」

「所謂小數據方法,是以大數據『預訓練』為前提的。」預訓練模型是這兩年人工智慧的重點突破,目前還有很大的應用潛力。」只要有數據的地方,預訓練模型就可以發揮作用。這條路線在未來幾年都不會遇到瓶頸,並且也會持續帶來新的發現。」

Yann LeCun也在書中強調了一點,人類的信息處理能力並沒有跟上資訊時代數據增長的速度,深度學習將會是人類很好的輔助幫手。

而且,人們或許過於相信人類智能相對於機器的優越性了。不同算法擁有不同的先驗,擅長任務也不同。人和機器也一樣,即便在感知方面,人也不一定比機器強。

儘管人很擅長識別人臉,但黃鐵軍告訴我們,「 人的人臉識別能力上限一般來說是1000個人臉左右,大約在數百到兩千之間,再增加就會覺得容易撞臉。」而如今,一個人臉識別系統可以準確識別幾百萬人乃至數千萬人。「這就好比計算機擅長邏輯推理,人類擅長類比和模擬,基本原因是其基礎結構不同。」

另一方面,人們經常將大腦和AI的能耗對比作為評判AI不足的依據,比如為了實現和人腦一樣的能力,計算機的能量消耗將是人腦的100萬倍。然而,這背後也要考慮到,人類經過了進化過程的長期訓練,才得以獲得如今的能力。在解決和先驗不適應的任務時,耗費的計算量就會更大。而對於我們需要什麼樣的先驗這個問題上,我們或許不能局限於人類本身,畢竟現實世界還存在那麼多「反人類」的枯燥工作。

電影《黑客帝國》劇照

在算法層面上,Yann LeCun也相信量變會帶來質變。果蠅擁有25萬個神經元、1000萬個突觸,人類擁有860億個神經元、150萬億個突觸,而相應地,這兩個物種的智力差異也是巨大的。Yann LeCun認為,通過修改由簡單的單元構成的網絡中的連接,就能產生智能行為。

什麼是智能?

Yann LeCun堅信,人腦就是可以計算的機器,可以通過電子機器或計算機進行再現,而機器學習將完成這個使命。

他將學習或者智能定義為:學習就是逐步減少系統誤差的過程,機器學習就是機器進行嘗試、犯錯以及自我調整等操作。

但黃鐵軍認為,這個定義還是比較片面,「機器的定義過於寬泛,沒有深入到主體。」因此,他將智能定義為:智能是系統通過獲取和加工信息而獲得的能力。智能系統的重要特徵是能夠從無序到有序(熵減)、從簡單到複雜演化(進化)。

這個定義強調了主體的存在,也就是說,智能要先回答「我是什麼樣的」,再回答「我怎麼學」。而Yann LeCun對此強調不足,「只是在機器學習的範圍內定義。」

在關於大數據和先驗的討論中,兩位學者都非常注重前者,以及量變到質變的哲學規律。但同時,對於智能的理論邊界,他們似乎有著不同的認識,黃鐵軍在這裡重新審視了」先驗「的意義。

Yann LeCun將目光聚焦於算法,認為只要集中精力深耕機器學習,就可以實現通用人工智慧。黃鐵軍則表示,智能是一個多層次的結構,不僅僅要關注算法,還要關注底層硬體基礎,這才是我們要關注的「主體」和「先驗」。

電影《攻殼機動隊》劇照

圖靈機能模擬世界嗎?

世界模型

認識論學家卡爾·波普爾提出,要以預測的能力而不是解釋現有觀察的能力來定義理論的質量。

Yann LeCun對此也深以為然,因為解釋現有觀察的理論只是提供了一個理解框架,如果不能用於預測,終究只是偽科學。

因此,基於預測的自監督學習範式,成為了Yann LeCun近幾年一直追求的目標。自監督的基本範式其實就是,基於現有的數據在時間和空間上進行劃分,並進行輸入和輸出的關聯。

在時間上,我們可以根據過去、現在來預測未來,比如視頻幀預測;根據現在來預測過去,比如追尋事件因果;根據當前時刻數據,根據部分數據預測另一部分數據,比如圖像補全。

這種學習方式和人類觀察世界的方式非常相似,並且無需花費大量成本進行數據標註。

而強調自監督學習只是表面,Yann LeCun更多地是基於對這種觀察方式的理解。他認為人類通過觀察世界在大腦中建立了世界模型,從而能夠更好地執行預測。

世界模型在深度學習中的體現,或許存在於預訓練模型的表徵空間中,只是這個表徵空間仍然非常複雜,難以提取出可理解的語義。

在世界模型的概念基礎上,Yann LeCun提出了完整的智能框架:一個感知模塊,一個世界模型,一個評判體系。

感知模塊從外部世界獲取數據,並根據任務類型,通過評判體系,將注意力集中到外部世界的重要部分,來構建內部的世界表徵,也就是世界模型。而世界模型的最終目的,還是為了更好地完成任務。在獲取外部世界數據時,智能體也需要規劃自己的探索路徑,使得這個過程更加有效率。反過來,世界模型的存在,也使得智能體的探索不至於盲目。

可以說,在這個框架內,世界模型是核心,智能的形成是世界模型不斷和外部世界交互迭代的過程。世界模型既是訓練得到的,也可以作為先驗去限制智能體的搜索空間。「無模型強化學習算法沒有世界模型,因此必須嘗試所有的做法。」

Yann LeCun甚至認為,如果世界模型可以完整表徵外部世界,就可以脫離外部世界,獨立地在表徵空間中進行腦內模擬,「比如,我們可以只靠世界模型來訓練自動駕駛算法。」

但黃鐵軍則認為,這個世界模型不可能是完整的,其中必然存在無法被表徵的外部世界現象。

圖靈可計算性

底層硬體往往決定了算法的絕對潛力,比如人們期待量子計算的變革性力量,就在於它相對於經典計算機的絕對優勢。

「腦科學至少可分為神經科學和認知科學兩個層次,人工智慧也至少應該分為功能和結構兩個層次。」對比Yann LeCun提出的智能框架,其缺少對基礎結構層次的關注。也就是說,他提出的智能概念,不僅應該包含自監督學習和認知智能,還應該包括實現載體,而他可能已經假設是圖靈計算機。

「我們不能只重視學習方法,而不重視執行學習的結構,兩者結合才是完整的智能系統。」很多人沒有考慮到的層面,就在於圖靈計算機的極限。「人們現在有把計算的概念過度泛化的傾向,忘記了圖靈當初定義可計算性的時候提出的基本概念。」圖靈機可以解決無數個問題,但無窮大實際上也存在級別差異。

在集合論中,存在關於無窮大的分類。自然數的數量是無窮多個,但它是可數的,數量記為阿列夫零;實數數量也是無窮大的,但不可數,記為阿列夫一。

其中可數的意思是,對於自然數集合,我們可以按照順序依次列出它們,並在無窮的迭代中窮盡它們,這是數學歸納法可信的基礎。但對於實數集合,我們做不到這一點,所以實數集合是不可數的。

現代計算機都基於圖靈機概念,而圖靈機只能處理可計算數,不能處理不可計算數。可計算數和不可計算數構成了所有實數,而其對應數量亦分別等於阿列夫零和阿列夫一。阿列夫零相對於阿列夫一的大小,是無窮小。所以,可計算數與不可計算數的數量相比,是無窮小。基於這個對比,不難體會到圖靈計算機的局限性。

這些不可計算數,可能對應於一些非線性的混沌現象,「有些混沌現象用圖靈計算機是無法真正模擬出來的。而這可能正是湧現等智能現象的基礎。」黃鐵軍強調。

另外,人腦神經元在做信號處理的時候,也不是簡單的有和無兩個狀態,而是存在非線性的變換過程。「所以,以電晶體為基礎的,或以開關電路理論為基礎的圖靈計算系統所構建的機器智能,和人類的智能系統之間,是有絕對邊界的。」

而在超越圖靈可計算性的機器上實現的機器學習,或許也能帶來完全不同的智能表現。

畢竟,圖靈機原本就源於人類智能的抽象,要突破這個抽象,我們還要更加深入挖掘人腦工作的基本原理。

哲學問題

歸根結底,兩位學者的觀點並不存在絕對的衝突,只是關注的層面不同。智能的定義,無論在機器還是人類的層面,在當前的技術發展階段,則依然是個尚未解決的哲學問題。

且讓我們深入《科學之路》這本書,去體會深度學習歷史進程的每個細節,在大腦的世界模型中去和Yann LeCun面對面辯論。或許,對於「智能是什麼」這個問題,你也能得出自己的初步答案。

「在這本書中,Yann LeCun站在自己的角度,將深度學習發展歷史的來龍去脈梳理得非常清晰和系統。」黃鐵軍說道。

「他還很努力地用非常通俗的語言來講述深度學習的基本原理,對於非專業或者剛接觸人工智慧的同學們來說,是非常合適的入門書籍。」

贈書福利 

AI科技評論本次聯合中信出版社為大家帶來5人工智慧先驅、圖靈獎得主Yann LeCun教授的自傳《科學之路》正版新書。

在本文(僅限AI科技評論微信公眾號端)留言區留言,歡迎大家暢所欲言,談一談你對本書的看法和期待。在綜合留言質量(留言是敷衍還是走心)和留言點讚最高(註:點讚最高的前5不意味著一定會中獎)的讀者中選出5位讀者獲得贈書。獲得贈書的讀者請聯繫 AI 科技評論客服(aitechreview)。

由於微信公眾號試行亂序推送,您可能不再能準時收到AI科技評論的推送。為了第一時間收到AI科技評論的報導, 請將「AI科技評論」設為星標帳號,以及常點文末右下角的「在看」。

相關焦點

  • 深度學習預習資料:圖靈獎得主Yann LeCun《深度學習》春季課程
    機器之心報導編輯:蛋醬開學進入倒計時,深度學習方向的準「研究僧」們,你們準備好了嗎?:新年大禮包:機器之心 2018 高分教程合集2017:靈魂追問 | 教程那麼多,你…… 看完了嗎?2016:人工智慧從入門到進階,機器之心高分技術文章全集 今天要介紹的是一份比較適合入門深度學習的課程:紐約大學數據科學中心《深度學習(Pytorch)》2020
  • Yann LeCun:深度學習已死,可微分編程萬歲!
    這個說法讓英偉達的AI架構VP Clement Farabet深表贊同,Farabet還評價說,這是對現今深度學習的最好總結。LeCun也轉推此文,表示贊同。但是,光是轉發推文,對LeCun來說顯然不夠。今天,他在Facebook個人主頁上寫了一篇短文,不僅支持可微分編程,還用上了「深度學習已死」的表述。不僅如此,他還推出了一個「歸化學習」。
  • Yann LeCun送你的春節大禮:免費學習全部2020春季深度學習課程
    本篇文章所透露的信息,對於廣大深度學習愛好者和學習者來說,絕對是「重磅福利」!! 紐約大學數據科學中心(NYU Center for Data Science)宣布,「深度學習三巨頭」之一的Yann LeCun2020春季開設的深度學習課程——DS-GA 1008,所有材料和資源全部免費向全網開放!
  • 圖靈獎得主Bengio和LeCun:自監督學習可使AI達到人類智力水平
    圖片來源@全景視覺文丨學術頭條在2020的ICLR線上大會上,蒙特婁學習算法研究所主任、圖靈獎得主Yoshua Bengio和Facebook 的副總裁兼首席人工智慧科學家Yann LeCun,坦率地談到了未來AI的研究趨勢。
  • 深度學習準「研究僧」預習資料:圖靈獎得主Yann LeCun《深度學習(Pytorch)》春季課程
    開學進入倒計時,深度學習方向的準「研究僧」們,你們準備好了嗎?轉眼 2020 年已經過半,又一屆深度學習方向的準研究生即將踏上「煉丹」之路。對於這一方向的新生來說,提前了解、學習這一專業領域的知識,會讓研究生涯有一個更加順暢的開端。列出的這些課程僅是冰山一角。
  • 吳恩達對話Yann LeCun:從相識Hinton到深度學習崛起
    深度學習專項課程 Deeplearning.ai 中,也包含吳恩達和多位深度學習大牛的對話視頻,之前 YouTube 上已經公開了他與 Geoffrey Hinton、Yoshua Bengio、Ian Goodfellow、Andrej Karpathy 等人的對話視頻。
  • 【損失函數合集】Yann Lecun的Contrastive Loss 和 Google的Triplet Loss
    但這種簡單的做法存在一個明顯的問題,那就是CNN提取的特徵「類間」區分性真的有那麼好嗎?昨天我們了解到用SoftMax損失函數訓練出的分類模型在Mnist測試集上就表現出「類間」區分邊界不大的問題了,使得遭受對抗樣本攻擊的時候很容易就分類失敗。況且人臉識別需要考慮到樣本的類別以及數量都是非常多的,這無疑使得直接用特徵向量來對比更加困難。
  • 圖靈的圖靈機
    》(論可計算數及其在判定問題上的應用)的論文,指出不存在一個通用過程(圖靈機)能判斷任何一個一階謂詞邏輯公式是否可證明。在這一長篇大作中,圖靈設計出了圖靈機來模擬人類的數學演算過程,定義並研究了與實數、實變函數相對應的可計算數、可計算函數,並由此引出了不存在一臺圖靈機判定任意圖靈機是否是非循環機的問題,並通過哲學論證試圖在圖靈機和人之間建立聯繫,說明人的「機械運算過程」完全與圖靈機等價。
  • Yoshua Bengio, Yann LeCun, Geoffrey Hinton 獲 2018 年圖靈獎
    雷鋒網 AI 科技評論按,今天,ACM 宣布,2018 年圖靈獎獲得者是號稱深度學習三巨頭的 Yoshua Bengio, Yann LeCun 和 Geoffrey Hinton,得獎理由是:他們在概念和工程上取得的巨大突破,使得深度神經網絡成為計算的關鍵元素(For conceptual and engineering breakthroughs that have made
  • 人類群星閃耀時 | Facebook人工智慧負責人Yann LeCun:讓深度學習...
    當前人工智慧之所以引起大家的興奮,在很大程度上是源於「卷積神經網絡」的研究進展。這項機器學習技術為計算機視覺、語音識別和自然語言處理帶來了巨大的、激動人心的進步。你可能已經聽過它另一個更加通俗友好的名字——深度學習。幾乎沒有人比54歲的Yann LeCun更能與深度學習緊密地聯繫在一起。
  • LSTM、GRU與神經圖靈機:詳解深度學習最熱門的循環神經網絡
    為神經網絡添加狀態的好處是它們將能在序列預測問題中明確地學習和利用背景信息(context),這類問題包括帶有順序或時間組件的問題。在這篇文章中,你將踏上了解用於深度學習的循環神經網絡的旅程。在讀完這篇文章後,你將了解:用於深度學習的頂級循環神經網絡的工作方式,其中包括 LSTM、GRU 和 NTM。
  • 神經圖靈機深度講解:從圖靈機基本概念到可微分神經計算機
    他最近在舊金山舉辦的機器學習會議上發表了關於神經圖靈機的報告。以下是報告講稿。嗨,大家好,我是 Talla 公司的高級數據科學家 Daniel Shank,今天我要談談一個新的振奮人心的機器學習架構,它被稱為神經圖靈機(Neutral Turing Machine/NTM)。首先,我要對這個架構做一個總體的概述,即這個架構是什麼?
  • 圖靈、圖靈機、圖靈獎
    fromtitle=%E5%9B%BE%E7%81%B5&fromid=121208&fr=aladdin閱讀書籍《圖靈的秘密》,進一步了解圖靈生平及其構建圖靈機的思維。圖靈機是一種抽象計算模型,書中深入剖析了圖靈這篇描述圖靈機和可計算性的原始論文《論可計算數及其在判定性問題上的應用》。
  • 深度學習元老Yann Lecun詳解卷積神經網絡
    Yann LeCun出生在法國,曾在多倫多大學跟隨深度學習鼻祖Geoffrey Hinton進行博士後研究。早在20世紀80年代末,Yann LeCun就作為貝爾實驗室的研究員提出了卷積網絡技術,並展示如何使用它來大幅度提高手寫識別能力。上世紀末本世紀初,當神經網絡失寵時Yann LeCun是少數幾名一直堅持的科學家之一。他於2003年成為紐約大學教授,並從此引領了深度學習的發展,目前任職於Facebook FAIR實驗室。
  • Yann LeCun:用預測學習替代無監督學習
    Perez、Yann LeCun編譯:王楠、劉小芹【新智元導讀】日前,Facebook AI 實驗室負責人、紐約大學教授 Yann LeCun 受邀在今年的 NIPS 大會發表主旨演講,暢談深度學習最近技術進展。
  • 從零開始深度學習第14講:CNN經典論文研讀之Le-Net5及其TensorFlow實現
    從本次筆記開始,筆者在深度學習筆記中會不定期的對 CNN 發展過程中的經典論文進行研讀並推送研讀筆記。今天筆者就和大家一起學習卷積神經網絡和深度學習發展歷史上具有奠基性的經典論文之一的關於 LeNet-5 網絡一文。
  • 深度學習筆記14:CNN經典論文研讀之Le-Net5及其Tensorflow實現
    作者:魯偉一個數據科學踐行者的學習日記。
  • Reddit熱議:AI教父Yann LeCun提出的「能量模型...
    相比之下,基於能量的自監督學習好像並沒有特別之處,也沒有相關的成功應用案例。Reddit上,超過95%的網友對這一觀點表示了贊同。另外,還有一位網友透露,最近3-4年很多專家都對它很著迷,他們認為基於能量的模型是深度學習的『未來』。
  • Spark與深度學習框架——H2O、deeplearning4j、SparkNet
    深度學習是當前正在進行中的Spark項目之一。本文我們將介紹一些Spark能用的深度學習框架。深度學習因其高準確率及通用性,成為機器學習中最受關注的領域。這種算法在2011—2012年期間出現,並超過了很多競爭對手。最開始,深度學習在音頻及圖像識別方面取得了成功。此外,像機器翻譯之類的自然語言處理或者畫圖也能使用深度學習算法來完成。
  • 圖靈機
    「圖靈機」想像使用一條無限長度的紙帶子,帶子上劃分成許多格子。如果格裡畫條線,就代表「1」;空白的格子,則代表「0」。