谷歌DeepMind 的可微分神經計算機 DNC 怎麼樣?看 Facebook AI...

2020-12-07 雷鋒網

田淵棟,卡耐基梅隆大學機器人系博士學位、上海交通大學碩士學位和學士學位,前谷歌無人車項目組成員,現任 Facebook 人工智慧組研究員,主要負責 Facebook 的智能圍棋項目 Dark Forest。

賈揚清,擁有加州大學伯克利分校計算機科學博士學位、清華大學碩士學位和學士學位,曾於新加坡國立大學、微軟亞洲研究院、NEC美國實驗室、Google Brain工作,現任 Facebook 研究科學家,主要負責前沿AI 平臺的開發以及前沿的深度學習研究。

近日,谷歌的 AI 部門 DeepMind 開發了一種叫做可微分神經計算機(DNC)的神經網絡模型,相關論文發表於 10 月 12 日在線出版的《自然》雜誌上,題為《 利用神經網絡與外部動態存儲器進行混合計算》。這種新模型將神經網絡與可讀寫的外部存儲器結合,既能像神經網絡那樣通過試錯和樣本訓練進行深度學習,又能像傳統計算機一樣處理數據。即使沒有先驗知識,DNC 也可以解決規劃最佳路線、拼圖任務等小規模問題。

德國研究者 Herbert Jaeger 評論稱,這是目前最接近數字計算機的神經計算系統,該成果有望解決神經系統符號處理難題。

史丹福大學心智、大腦和計算中心主任 Jay McClelland 稱,這項研究將成為人工智慧領域「有趣且重要的裡程碑」。

那麼我們究竟該如何看待谷歌 Deepmind 團隊最新發布的可微分神經計算機 DNC 呢?果然,已經有人在知乎上提出這個問題。

編者註:該知乎提問中「谷歌deeplearning團隊」實際上應該指的是「谷歌Deepmind團隊」。

截止發稿前,該問題有兩個回答,Facebook 人工智慧組研究員田淵棟的回答獲得了 44 人贊同。

他認為「革命性突破」言過其實,總的來說不及前兩篇 Nature。

這篇文章模型複雜,手工設計太多,實驗相對簡單,沒有在大規模數據集上測試性能,能成功地應用於小規模搜索,但通用化還需要很久。

田淵棟在知乎上的回答,賈揚清進行了回復(連結)

賈揚清認為以前主要是手調 feature(特徵),而這次的 DNC 實際上是手調網絡,他在評論中提到的 Jitendra 應該是加州大學伯克利分校的電氣工程與計算機科學系教授 Jitendra Malik。

在田淵棟的英文博客上,可以看到更多他對這篇論文的看法,我們首先來看看這篇題為《 Notes on DeepMind's 3rd Nature paper 》的文章。

以下為博文內容:

最近 Deepmind 發表了他們在《自然》雜誌上的第三篇論文《 利用神經網絡與外部動態存儲器進行混合計算》。他們設計了一個遞歸神經網絡結構(深度 LSTM),反覆發送新的讀/寫命令到外部存儲器,以及基於先前讀取存儲器和當前輸入得到的動作輸出。他們稱它為 DNC(可微分神經計算機)。這裡希望網絡能夠基於給定的信息進行推理。他們用實驗模型來處理 bAbI 推理任務,網絡遍歷/最短路徑預測,家庭樹的關係推理和拼圖遊戲推理,其性能遠遠優於沒有外部存儲器的 LSTM。

這裡給出一些評價:

1、總體而言,他們是隱含地學到了基於搜索推理的啟發式函數(heuristic function)。正如他們在文章中提到的:「一個基於最短路徑訓練的 DNC 的可視化結果顯示,它會逐步探索從開始到結束的每個節點輻射出的關係,直到找到整個連接路徑(補充視頻 1)。」我們也可以在倫敦地鐵任務(圖3)中看到類似的情況。這在小規模搜索的實驗中可能是有效的,但在處理真正的問題時不一定是一個很好的策略。

2、似乎網絡中的手工調整設計很多。該網絡是給外部存儲器的下一組操作。外部存儲器上有許多類型的操作,組合了各種不同類型的 Attention 機制(基於內容的 Attention 模型,隨之而來的寫入 Attention 模型,和基於讀寫的「用法」機制)。不確定哪個組件更重要。理想情況下,應該有一個更自動或更規律的方法。

3、幾個有趣的細節:

(1)直接用實際情況的答案訓練一個連續結構預測模型,這不是很好,因為當預測偏離了實際觀測情況,該模型可能會很容易失敗。在本文中,他們在結構預測時使用了混合了實際觀測情況分布與當前預測分布 DAgger。這使得預測的魯棒性很好。

(2)對於拼圖遊戲來說,他們使用了 actor-critic-like 模型。在這種情況下,DNC 的輸出策略和價值功能取決於一開始作為輸入的遊戲規則。這符合我們訓練 Doom AI 的經驗,actor-critic-like 模型的收斂速度比Q-learning 快。

(3)課程訓練(例如,先從簡單的任務開始訓練模式)起著重要的作用。這也符合我們訓練 Doom AI 的經驗(我們很快將發表相關論文)。

雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • DeepMind可微分神經計算機DNC開源 內部架構原理首次曝光
    1 新智元報導1   作者:聞菲胡祥傑 劉小芹 零夏  【新智元導讀】DeepMind昨夜宣布,將其 Nature 論文研究成果、2016 年引起熱議的可微分神經計算機 DNC 開源,相關代碼和部署細節已經在 Github 公開。
  • DeepMind新GNN模型,將谷歌地圖預估到達準確率提升50%!
    近日,DeepMind宣布幫「兄弟一把」——與谷歌地圖展開合作,利用了一種圖神經網絡(GNN),成功提升了谷歌地圖在柏林、東京、雪梨等大城市的實時 ETA 準確率,最高提升了50%。DeepMind此次的研究,就是如何解決這個動態預測問題。
  • 谷歌升級人工智慧:可微分神經計算機會獨立思考
    近日,谷歌旗下人工智慧公司DeepMind研發了可微分神經計算機(Differentiable Neural Computer,DNC),改進了機器學習的能力,給予神經網絡額外的儲存空間,用於存儲後天學習的信息。這種模式的好處在於,機器學習又上升了一個高度,具備了一定的獨立思考能力。
  • 從AlphaGo到蛋白質摺疊,Deepmind在不斷捅破AI領域的天花板!
    為創建超人類AI而生,讓馬斯克極度關注DeepMind跟傳奇的谷歌X實驗室不同,它並非谷歌親身,而是最初於2010年在英國成立的一家AGI(通用人工智慧)公司。有別於功能應用越來越細分的AI,AGI可簡單理解為我們在各種大片中看到的機器人,具備與人類相近的大腦獨立思考能力的人工智慧。
  • DeepMind提出可微分邏輯編程,結合深度學習與符號程序優點
    DeepMind在最近發表的一篇論文中,提出了可微分歸納邏輯編程方法ILP,既能解決傳統歸納邏輯編程擅長的符號類任務,也對噪聲數據、訓練集中的誤差有一定容忍度,還可以通過梯度下降來訓練。怎麼樣?我們最近在《JAIR》期刊(Journal of AI Research)上發表的論文表明,系統可以將直觀的感性思維和概念性的可解釋推理結合起來。我們所描述的ILP(可微分歸納邏輯編程,Differentiable Inductive Logic Programming)系統具有下列特性:抗噪聲、數據上很經濟、能產生可解釋的規則。
  • 人工智慧利用神經網絡來控制機器
    人工智慧利用神經網絡來控制機器,或者是人工智慧根據預定的規則來控制機器.人工智慧可以用於搜索,診斷,預測,監控和機器人等諸多方面.人工智慧為人類提供了創造性解決方案,這個解決方案不僅能創造出改變,同時還能控制它們.世界對於人工智慧抱有非常樂觀的態度,因為它們讓人類工作變得更加高效.然而,智能的出現時間還很短暫,遠沒有到大眾普遍接受的階段.那麼,人工智慧未來的發展方向到底是什麼
  • DeepMind推人工智慧DNC
    今年年初,谷歌Alpha Go戰勝圍棋高手李世石,讓我們見識到了人工智慧的強悍。  而根據報導,開發Alpha Go的人工智慧團隊DeepMind,近日推出一個能夠根據記憶自主學習的計算機 DNC(可微神經計算機)。
  • DeepMind AI破解「蛋白質摺疊」難題,攻克生物學50年...
    美國時間11月30日,谷歌母公司Alphabet旗下人工智慧公司DeepMind公開宣布,生物學界50年來的重大難題——蛋白質摺疊預測,已被其成功攻克。1972年諾貝爾化學獎得主克裡斯蒂安·安芬森(Christian Anfinsen)曾提出,基於蛋白質的1D胺基酸序列可計算並預測蛋白質的3D結構。
  • DeepMind AI破解「蛋白質摺疊」難題,攻克生物學50年巨大挑戰
    美國時間11月30日,谷歌母公司Alphabet旗下人工智慧公司DeepMind公開宣布,生物學界50年來的重大難題——蛋白質摺疊預測,已被其成功攻克。1972年諾貝爾化學獎得主克裡斯蒂安·安芬森(Christian Anfinsen)曾提出,基於蛋白質的1D胺基酸序列可計算並預測蛋白質的3D結構。
  • DeepMind AI破解「蛋白質摺疊」難題,攻克生物學50年巨大挑戰
    美國時間11月30日,谷歌母公司Alphabet旗下人工智慧公司DeepMind公開宣布,生物學界50年來的重大難題——蛋白質摺疊預測,已被其成功攻克。同一時間,谷歌CEO兼執行長桑達爾·皮查伊 (Sundar Pichai)、斯坦福教授李飛飛、馬斯克等眾多科技大佬也在第一時間轉推祝賀!
  • 【一文打盡 ICLR 2018】9大演講,DeepMind、谷歌最新乾貨搶鮮看
    原標題:【一文打盡 ICLR 2018】9大演講,DeepMind、谷歌最新乾貨搶鮮看 ,可重用性和魯棒性 Christopher D Manning:一個可以推理的神經網絡模型 大會主席 Yoshua Bengio,蒙特婁大學 Yann LeCun,紐約大學&Facebook
  • 深度學習之Google Deepmind的Alphago人工智慧算法技術演變歷程
    最近大家比較關心的圍棋人機大戰(Alphago vs 李世石)中,deep mind基於Nature2016文章的Alphago在5局制的比賽中已經取得了4-1的獲勝。2016年Google與facebook兩個大拿在圍棋領域基於深度學習都發表了文章,其中facebook文章如下:《BETTER COMPUTER GO PLAYER WITH NEURAL NET- WORKAND LONG-TERM PREDICTION》 ;Google文章如下:《Mastering the game of Go with deep neural networks and tree
  • NumPy、AI基礎設施可微分編程、技術實踐,這是一場開發者的盛會
    Alex 於 1996 年,在慕尼黑工業大學獲得碩士學位,1998 年,在柏林工業大學取得計算機科學博士學位。之後,他在澳大利亞國立大學擔任研究院和研究小組組長。2004 - 2008 年,他在 NICTA 研究中心統計機器學習項目擔任項目負責人,2008 - 2014 年,先後在雅虎、谷歌從事研究工作。2013 年,加入卡內基·梅隆大學擔任教授。2015 年,聯合創建馬裡亞納實驗室。
  • 「燒錢機器」DeepMind持續多年虧損後,仍無商業...
    首先,財務報告提到了重要的一項:其他集團企業的營業額及研發報酬,該數據顯示DeepMind的主要客戶大部分來自母公司Alphabet旗下的其他公司,其中主要以谷歌為主。同時,DeepMind的技術研發成果也主要應用於這些企業當中,例如其AI被谷歌應用於語音助手和數據管理中心任務中。這說明,DeepMind的人工智慧技術還沒有應用市場。如果有,它只能通過谷歌獲得。
  • 『燒錢機器』DeepMind持續多年虧損後,仍無商業...
    首先,財務報告提到了重要的一項:其他集團企業的營業額及研發報酬,該數據顯示DeepMind的主要客戶大部分來自母公司Alphabet旗下的其他公司,其中主要以谷歌為主。同時,DeepMind的技術研發成果也主要應用於這些企業當中,例如其AI被谷歌應用於語音助手和數據管理中心任務中。這說明,DeepMind的人工智慧技術還沒有應用市場。如果有,它只能通過谷歌獲得。
  • DeepMind最新發現!神經網絡的性能竟然優於神經符號模型
    ,居然比神經符號模型還要低! 計算機視覺中的注意力機制(attention)的基本思想,就是想讓系統學會注意力——能夠忽略無關信息而關注重點信息。 總的來說,注意力機制就是一種一次只專注於一個元素或幾個元素的算法機制。
  • Facebook這個神經網絡用自然語言表示數學式,秒解微分方程!
    具體的精妙思想跟操作是怎麼樣的呢?戳右邊連結上新智元小程序了解更多!Facebook的神經網絡也可以計算積分和求解微分方程啦!儘管其他的神經網絡還沒有超越簡單的加減法和乘除法。這是怎麼回事呢?讓我們來一探究竟!
  • AI巨頭實力排名新鮮出爐:DeepMind第一,IBM墊底
    他們發表的論文在研究界裡很受推崇,而且涉及的領域非常廣,例如深度增強學習,貝葉斯神經網絡,機器人學,遷移學習,等等。他們從牛津大學和劍橋大學招攬了大量人才,這兩所大學是歐洲最好的 ML 研究學府。谷歌大腦剛成立時,第一個研究項目確實偏向工程,但今天谷歌大腦團隊已經有很多員工,關注 AI 每個子領域的長期的 AI 研究,就類似於 FAIR 和 Deepmind。舉例說來,FAIR 在 ICLR 2017 會議上有16篇論文被收錄,其中3篇被錄為 Oral(即非常傑出的論文)。
  • 神經圖靈機深度講解:從圖靈機基本概念到可微分神經計算機
    這裡的關鍵思想是神經圖靈機基本上就是可微分的圖靈機,這是很重要的,因為我們每天在計算機上做的算法和事情對計算機來說是非常困難的,原因是計算機的計算是絕對的。要麼是 0 要麼是 1。計算機在「非此即彼」的邏輯或者整數中運作。然而大多數的神經網絡和機器學習實際上不是這樣的。它們使用實數。
  • 麥大畢業生,蒙大教授拿了「計算機諾貝爾」!三位獲獎者兩位是加拿大人!
    具體操作可以拉到文章底部看詳細教程哦~本周三,美國電子計算機協會宣布,來自蒙特婁大學的Yoshua Bengio教授,多倫多大學的Geoffrey Hinton教授,以及紐約大學Yann LeCun教授共同斬獲2018年度全球計算機科學的最高獎項——圖靈獎,並共享100萬美元獎金!