深度學習之後會是啥?

2021-01-10 TechWeb

大數據文摘出品

來源:datasciencecentral

編譯:Min

我們被困住了,或者說至少我們已經停滯不前了。有誰還記得上一次一年沒有在算法、晶片或數據處理方面取得重大顯著進展是什麼時候?幾周前去參加Strata San Jose會議,卻沒有看到任何吸引眼球的新進展,這太不尋常了。

正如我之前所報告的那樣,似乎我們已經進入了成熟期,現在我們的主要工作目標是確保我們所有強大的新技術能夠很好地結合在一起(融合平臺),或者從那些大規模的VC投資中賺取相同的錢。

 

我不是唯一一個注意到這些的人。幾位與會者和參展商都和我說了非常類似的話。而就在前幾天,我收到了一個由知名研究人員組成的團隊的說明,他們一直在評估不同高級分析平臺的相對優點,並得出結論:沒有任何值得報告的差異。

我們為什麼和在哪裡陷入困境?

我們現在所處的位置其實並不差。我們過去兩三年的進步都是在深度學習和強化學習領域。深度學習在處理語音、文本、圖像和視頻方面給我們帶來了了不起的能力。再加上強化學習,我們在遊戲、自主車輛、機器人等方面都有了很大的進步。

我們正處於商業爆炸的最早階段,基於諸如通過聊天機器人與客戶互動來節省大量資金、個人助理和Alexa等新的個人便利應用、個人汽車中的二級自動化,比如自適應巡航控制、事故避免制動和車道維護。

Tensorflow、Keras和其他深度學習平臺比以往任何時候都更容易獲得,而且由於GPU的存在,比以往任何時候都更高效。

但是,已知的缺陷清單根本沒有解決:

需要太多標籤化的訓練數據。 模型的訓練時間太長或者需要太多昂貴的資源,而且還可能根本無法訓練。 超參數,尤其是圍繞節點和層的超參數,仍然是神秘的。自動化甚至是公認的經驗法則仍然遙不可及。 遷移學習,意味著只能從複雜到簡單,而不是從一個邏輯系統到另一個邏輯系統。

我相信我們可以列一個更長的清單。正是在解決這些主要的缺點方面,我們已經陷入了困境。

是什麼阻止了我們

在深度神經網絡中,目前的傳統觀點是,只要我們不斷地推動,不斷地投資,那麼這些不足就會被克服。例如,從80年代到00年代,我們知道如何讓深度神經網絡工作,只是我們沒有硬體。一旦趕上了,那麼深度神經網絡結合新的開源精神,就會打開這個新的領域。

所有類型的研究都有自己的動力。特別是一旦你在一個特定的方向上投入了大量的時間和金錢,你就會一直朝著這個方向前進。如果你已經投入了多年的時間來發展這些技能的專業知識,你就不會傾向於跳槽。

改變方向,即使你不完全確定應該是什麼方向。

有時候我們需要改變方向,即使我們不知道這個新方向到底是什麼。最近,領先的加拿大和美國AI研究人員做到了這一點。他們認為他們被誤導了,需要從本質上重新開始。

這一見解在去年秋天被Geoffrey Hinton口頭表達出來,他在80年代末啟動神經網絡主旨研究的過程中功不可沒。Hinton現在是多倫多大學的名譽教授,也是谷歌的研究員,他說他現在 "深深地懷疑 "反向傳播,這是DNN的核心方法。觀察到人腦並不需要所有這些標籤數據來得出結論,Hinton說 "我的觀點是把這些數據全部扔掉,然後重新開始"。

因此,考慮到這一點,這裡是一個簡短的調查,這些新方向介於確定可以實現和幾乎不可能實現之間,但不是我們所知道的深度神經網的增量改進。

這些描述有意簡短,無疑會引導你進一步閱讀以充分理解它們。

看起來像DNN卻不是的東西

有一條研究路線與Hinton的反向傳播密切相關,即認為節點和層的基本結構是有用的,但連接和計算方法需要大幅修改。

我們從Hinton自己目前新的研究方向——CapsNet開始說起是很合適的。這與卷積神經網絡的圖像分類有關,問題簡單來說,就是卷積神經網絡對物體的姿勢不敏感。也就是說,如果要識別同一個物體,在位置、大小、方向、變形、速度、反射率、色調、紋理等方面存在差異,那麼必須針對這些情況分別添加訓練數據。

在卷積神經網絡中,通過大量增加訓練數據和(或)增加最大池化層來處理這個問題,這些層可以泛化,但只是損失實際信息。

下面的描述是眾多優秀的CapsNets技術描述之一,該描述來自Hackernoon。

Capsule是一組嵌套的神經層。在普通的神經網絡中,你會不斷地添加更多的層。在CapsNet中,你會在一個單層內增加更多的層。或者換句話說,把一個神經層嵌套在另一個神經層裡面。capsule裡面的神經元的狀態就能捕捉到圖像裡面一個實體的上述屬性。一個膠囊輸出一個向量來代表實體的存在。向量的方向代表實體的屬性。該向量被發送到神經網絡中所有可能的父代。預測向量是基於自身權重和權重矩陣相乘計算的。哪個父代的標量預測向量乘積最大,哪個父代就會增加膠囊的結合度。其餘的父代則降低其結合度。這種通過協議的路由方式優於目前的max-pooling等機制。

CapsNet極大地減少了所需的訓練集,並在早期測試中顯示出卓越的圖像分類性能。

多粒度級聯森林

2月份,我們介紹了南京大學新型軟體技術國家重點實驗室的周志華和馮霽的研究,展示了他們稱之為多粒度級聯森林的技術。他們的研究論文顯示,多粒度級聯森林在文本和圖像分類上都經常擊敗卷積神經網絡和循環神經網絡。效益相當顯著。

只需要訓練數據的一小部分。 在您的桌面CPU設備上運行,無需GPU。 訓練速度一樣快,在許多情況下甚至更快,適合分布式處理。 超參數少得多,在默認設置下表現良好。 依靠容易理解的隨機森林,而不是完全不透明的深度神經網。

簡而言之,gcForest(多粒度級聯森林)是一種決策樹集合方法,其中保留了深網的級聯結構,但不透明的邊緣和節點神經元被隨機森林組與完全隨機的樹林配對取代。在我們的原文中閱讀更多關於gcForest的內容。

Pyro and Edward

Pyro和Edward是兩種新的程式語言,它們融合了深度學習框架和概率編程。Pyro是Uber和Google的作品,而Edward則來自哥倫比亞大學,由DARPA提供資金。其結果是一個框架,允許深度學習系統衡量他們對預測或決策的信心。

在經典的預測分析中,我們可能會通過使用對數損失作為健身函數來處理這個問題,懲罰有信心但錯誤的預測(假陽性)。到目前為止,還沒有用於深度學習的必然結果。

例如,這有望使用的地方是在自動駕駛汽車或飛機中,允許控制在做出關鍵或致命的災難性決定之前有一些信心或懷疑感。這當然是你希望你的自主Uber在你上車之前就知道的事情。

Pyro和Edward都處於開發的早期階段。

不像深網的方法

我經常會遇到一些小公司,他們的平臺核心是非常不尋常的算法。在我追問的大多數案例中,他們都不願意提供足夠的細節,甚至讓我為你描述裡面的情況。這種保密並不能使他們的效用失效,但是在他們提供一些基準和一些細節之前,我無法真正告訴你裡面發生了什麼。當他們最終揭開面紗的時候,就把這些當作我們未來的工作檯吧。

目前,我所調查的最先進的非DNN算法和平臺是這樣的。

層次時間記憶(HTM)

層次時間記憶(HTM)使用稀疏分布式表示法(SDR)對大腦中的神經元進行建模,並進行計算,在標量預測(商品、能源或股票價格等未來值)和異常檢測方面優於CNN和RNN。

這是Palm Pilot名宿Jeff Hawkins在其公司Numenta的奉獻作品。霍金斯在對大腦功能進行基礎研究的基礎上,追求的是一種強大的人工智慧模型,而不是像DNN那樣用層和節點來結構。

HTM的特點是,它發現模式的速度非常快,只需1,000次觀測。這與訓練CNN或RNN所需的幾十萬或幾百萬次的觀測相比,簡直是天壤之別。

此外,模式識別是無監督的,並且可以根據輸入的變化來識別和概括模式的變化。這使得系統不僅訓練速度非常快,而且具有自學習、自適應性,不會被數據變化或噪聲所迷惑。

一些值得注意的漸進式改進

我們開始關注真正的遊戲改變者,但至少有兩個漸進式改進的例子值得一提。這些顯然仍然是經典的CNN和RNNs,具有反向支撐的元素,但它們工作得更好。

(1) 使用Google Cloud AutoML進行網絡修剪

谷歌和Nvidia的研究人員使用了一種名為網絡修剪的過程,通過去除對輸出沒有直接貢獻的神經元,讓神經網絡變得更小,運行效率更高。這一進步最近被推出,作為谷歌新的AutoML平臺性能的重大改進。

(2) Transformer

Transformer是一種新穎的方法,最初在語言處理中很有用,比如語言到語言的翻譯,這一直是CNNs、RNNs和LSTMs的領域。去年夏末由谷歌大腦和多倫多大學的研究人員發布,它在各種測試中都表現出了顯著的準確性改進,包括這個英語/德語翻譯測試。

RNNs的順序性使其更難充分利用現代快速計算設備(如GPU),因為GPU擅長的是並行而非順序處理。CNN比RNN的順序性要差得多,但在CNN架構中,隨著距離的增加,將輸入的遠端部分的信息組合起來所需的步驟數仍然會增加。

準確率的突破來自於 "自注意功能 "的開發,它將步驟大幅減少到一個小的、恆定的步驟數。在每一個步驟中,它都應用了一種自我關注機制,直接對一句話中所有詞之間的關係進行建模,而不管它們各自的位置如何。

就像VC說的那樣,也許是時候該換換口味了。

相關報導:https://www.datasciencecentral.com/profiles/blogs/what-comes-after-deep-learning

 

相關焦點

  • SpaceX發射之後:在人類探索太空的徵途中,深度學習能做什麼?
    機器之心報導參與:蛋醬、杜偉、小舟在人類探索太空的徵途中,深度學習能做什麼?在繞地球飛行了 19 個小時之後,Space X 的載人龍飛船與國際空間站成功對接了。與此同時,機器學習也在這一領域有著更加廣泛的應用,尤其是近年來興起的深度學習技術。在今年 1 月份的一篇論文中,來自牛津大學和三星 AI 的研究者介紹了深度學習在太空探索實踐中的應用。論文連結:https://arxiv.org/pdf/2001.10362.pdf深度學習技術與太空的相遇在人類探索太空的徵途中,深度學習能做什麼?
  • 一場突如其來的討論:到底什麼是深度學習?SVM其實也是深度學習嗎?
    不過這個說法在我看來太過狹隘了,它最多是「我們現在做的深度學習」的描述,而不是對深度學習本身的定義。比如說,如果你有一個卷積網絡模型,然後你用 ADMM 訓練它的權重,它就不是深度學習了嗎?一個自己學習特徵的 HMAX 模型就不是深度學習了嗎?甚至於,用貪婪算法逐層訓練的深度神經網絡就不是深度學習了嗎?要我說的話,它們都是深度學習。
  • 深度學習架構
    最近二十年來,深度學習架構開始出現,這種架構極大地拓展了神經網絡能夠解決的問題的數量和類型。本文介紹了五種最熱門的深度學習架構,包括循環神經網絡 (RNN)、長短期記憶 (LSTM)/門控循環單元 (GRU)、卷積神經網絡 (CNN)、深度信念網絡 (DBN) 和深度堆棧網絡 (DSN),本文還探討了深度學習的開源軟體選項。
  • 深度學習:盤點全球的深度學習框架「Tensorflow、Pytorch」勝出
    深度學習在人工智慧技中的表現尤為的突出,想要學習深度學習,首先需要掌握一個有效的深度學習框架,這篇文章將盤點目前全球流行的深度學習框架,從框架的流行程度、應用場景出發,來提高大家對深度學習框架的認識。總結:Tensorflow對多平臺、多語言的支持,其背後又有Google強大的團隊維護能力,以及對深度學習生態全方位的支持,這些使得其成為目前最為流行的深度學習框架。
  • 一本入門深度學習的好書
    而與此同時學習深度學習的人也開始變得多了起來,但由於深度學習涉及面比較廣,很多學者會對此望而卻步。然而如果學好深度學習,不僅僅可以給你帶來高薪資,也有可能會給你帶來很多的榮譽!因為在此領域還是非常缺乏人才的!最近經常有朋友提及,想要入門深度學習,該如何學習?關於深度學習,網上的資料很多,不過貌似大部分都不太適合初學者。
  • 移動深度學習:人工智慧的深水區
    原標題:移動深度學習:人工智慧的深水區隨著5G商用大規模落地,以及智慧型手機硬體性能越來越強、AIoT設備的快速普及,基於雲-邊緣-端算法和算力結構的移動端人工智慧,仍有非常大的發展空間,亟待我們快速理解移動端深度學習的原理,掌握如何將其應用到實際業務中。
  • 國外深度學習研究評析
    國外興起的深度學習恰恰是人類學習問題研究進入多學科整合研究階段的產物。  (一)國外深度學習研究發展階段  第一階段:深度學習思想的早期孕育。早在20世紀初,約翰·杜威(John Dewey)倡導「做中學」,強調教會學生自主學習和反省思維。
  • 推進深度學習,打造課改新樣態,指向學科核心素養的「深度學習」
    2020年12月1日都江堰市教育局,在都江堰市北街小學舉辦,小學「深度學習」課堂教學改革與實踐主題研討活動。▲蒲陽小學徐麗老師介紹深度學習中的大單元學習強調三核課堂:真目標、真情景、真評價,整合單元的人文要素和語文要素,確定單元主題。通過挑戰性任務來貫穿學生活動的始終。
  • 深度學習在CV領域已觸及天花板?
    相比之下,NLP 繼 BERT 之後又出現了 XLNet,就顯得熱鬧的多。對應的,對於 Deep Learning 在 CV 領域是否觸頂的質疑聲也開始變得更加強烈。1.1 什麼是深度學習想要了解什麼是深度學習,最簡單的方法莫過於打開一個深度學習課程或者入門書籍,看一下它的目錄,就大概了解深度學習包括什麼了。本文引用 Lecun 在 2015 年曾經給深度學習下過的定義——深度學習方法由多個層組成,用於學習具有多個等級的數據特徵。所以有些學者也把深度學習叫做分級學習(Hierarchical Learning)。
  • 2017年英語課標關鍵詞——深度學習
    這應該不是我們課標中的深度學習。我們看一下課標原文中「深度學習」表達了些什麼?必修課教材要面向全體學生,保證共同基礎,合理控制容量和難度,為所有高中學生搭建發展平臺;選擇性必修和選修課教材要重視學生的深度學習和全面而有個性的發展,為學生終身學習奠定基礎。
  • 深度學習應用於通用聲音識別
    的讀者,請參考雷鋒網「深度學習大講堂」系列文章,大神Yann LeCun親授:如何自學深度學習技術並少走彎路,以及 周志華KDD China技術峰會現場演講:深度學習並不是在「模擬人腦」。Yair Lavi 解釋說:「全世界都在用深度學習進行圖像識別,這是至今最新最火的應用。另外,AI 行業還有一部分在做深度學習的語音識別。我認為專注於通用聲音識別的公司可能是極少數,我們是其中之一。
  • 深度學習與計算機視覺群|文末送書
    深度學習與計算機視覺③群已組建,上次開放進群,沒來得及進的小夥伴,抓緊啦 。之後,我們會在交流群開展「你挑我送」為主題的送書活動喲~ 歡迎加入!!!在過去的750天裡,深度學習與計算機視覺公眾號積累了大量的乾貨文章,主要包含OpenCV-Python教程系列、三大目標檢測框架系列(mmdetection、detectorn2與simpledet)、視覺頂會系列、計算機視覺學習路線以及學界雜談
  • 廣告行業中那些趣事系列9:一網打盡Youtube深度學習推薦系統
    因為Youtube深度學習推薦系統是基於Embedding做的,所以第二部分講了下Embedding從出現到大火的經過。最後一網打盡Youtube深度學習推薦系統。該系統主要分成兩段式,第一段是生成候選項模型,主要作用是將用戶可能感興趣的視頻資源從百萬級別初篩到百級別;第二段是精排模型,主要作用是將用戶可能感興趣的視頻從百級別精挑到幾十級別,然後按照興趣度得分進行排序形成用戶觀看列表。
  • 大話卷積神經網絡CNN,小白也能看懂的深度學習算法教程,全程乾貨...
    來源 | 程式設計師管小亮本文創作的主要目的,是對時下最火最流行的深度學習算法的基礎知識做一個簡介,作者看過許多教程,感覺對小白不是特別友好,尤其是在踩過好多坑之後,於是便有了寫這篇文章的想法。由於文章較長,建議收藏~本文文中會有個人推薦的學習資源。
  • 《認知覺醒》:深度學習,才是人生頂級自律
    也就是說你不能靜心專注一件事情,就沒辦法做到自律,這是因為缺乏深度學習的表現。你可能會說,我也在努力學習,為什麼就沒有什麼起色,那你可能只是進行了淺學習,沒有真正的吸收和輸出。劉濯源說:淺學習是沙上寫字,深學習是石上刻字;前者易,後者難,但只有難才不會被輕易磨滅。真正的深度學習,即沒有那麼容易,也沒有那麼難。
  • 聚焦核心素養 走向深度學習
    11月27日,康巴什區第二輪課改推進會圓滿落下帷幕,此次課改推進會以《康巴什區第二輪「生本教育 學本課堂」課堂教學改革實施意見》為指導,全面落實立德樹人根本任務,聚焦學生深度學習,深化課堂教學改革,凸顯學校文化建設,推動區域教育均衡發展,體現了康巴什教育的品質與內涵。
  • 2020年深度學習發展大盤點及對2021年深度學習的未來展望|極客雲算
    深度學習框架作為AI底層工具,對個人而言是進入深度學習世界的一把鑰匙,掌握深度學習框架並不等於理解了深度學習,要在AI開發中有所作為,關鍵還是要真正理解框架背後的技術、實踐和生態。隨著近年來的人工智慧發展,2020年深度學習依然是發展最快的領域之一,直奔未來工作。其發展是多方面的,而且是多方位的。
  • NVIDIA深度學習Tensor Core全面解析(上篇)
    但是在深入研究這些測試數據之前,雷鋒網首先會就深度學習、GPU、Volta微架構以及深度學習性能基準進行一些背景介紹。GPU與深度學習首先要說明的是,雖然「機器學習」或更通用的「AI」有時可互換用於「深度學習」,但從技術上講,它們各自指的是不同的東西,機器學習是AI的子集,深度學習則是機器學習的子集。
  • 深度學習局限何在?圖網絡的出現並非偶然
    「讓一個孩子學會認識一頭母牛,」Hinton 說,「他們的母親不需要說'牛'一萬次」,但深度學習系統學習『牛』時需要這麼多次。人類通常僅從一兩個例子中就能學習新概念。然後是不透明問題。深度學習系統訓練好之後,我們無法確定它是如何做出決定的。
  • 課堂的困境與變革:從淺表學習到深度學習 ——基於對中小學生真實...
    虛假學習的情況從小學三年級左右開始大量存在,一直持續到初中二年級左右,虛假學習的學生逐漸淪為「學困生」。虛假學習的學生往往對學習的內容缺少興趣,不掌握學習的方法,跟不上教師教學的節奏,但是為了避免教師的懲罰,會採用「假裝學習」的方式來逃避。