bAbI又屠榜?DeepMind新模型MEMO引入Transformer,模仿人腦推理

2020-12-10 新智元

【新智元導讀】Alphabet的子公司DeepMind一直是AI開發的基石。您可能還記得DeepMind的AlphaGo在與世界冠軍Lee Sedol的圍棋比賽中獲勝。這些AI都在人工神經網絡上運行,模仿大腦的連接主義系統。今天我們來看DeemMind推出的另一個模擬人腦推理的新模型。

人工智慧是否能夠捕捉到推理的本質,也就是說,分布在多個事實或記憶中的元素之間的距離關係? Alphabet 的子公司 DeepMind 在 arXiv. org 上發表了一項研究,試圖找出答案。

單一經驗的靈活重組來實現推斷

該研究提出了一種能夠進行長距離推理的架構——MEMO。 研究人員表示,MEMO 的兩個新穎組件——第一個組件將事實和存儲在外部存儲器中的記憶分離,第二個組件採用了一種檢索系統,在決定一個答案之前允許不同數量的「記憶跳數」,使它能夠解決新穎的推理任務。

在我們的日常生活中,我們需要做出一些判斷,這些判斷需要將那些不是一次經歷的事實聯繫起來,而且是在不同時間點的經歷中獲得的。

想像一下,你帶著你的女兒去一個編程夏令營,遇到了另一個和一個女人在一起的小女孩,你可以推斷出那個女人是小女孩的母親。幾周後,你在你家附近的咖啡店裡看到了同一個小女孩,這次是和一個男人在一起。根據這兩個分開的情節,你可以推斷出女人和男人之間有關係。這種單一經驗的靈活重組以新穎的方式來推斷未觀察到的關係被稱為推理,並由海馬體支持。

有趣的是,已經證明海馬體通過一種叫做模式分離的過程來獨立地存儲記憶。海馬區記憶保持分離的原因是為了儘量減少經驗之間的幹擾,這使得我們能夠以「情景性」記憶的形式回憶特定的事件。

很明顯,這種分離與上面提到的海馬體在概括過程中的作用相衝突,也就是說,分離的記憶如何才能連結在一起?有趣的是,最近的一項研究表明,分離經驗的整合是通過一種循環機制,在檢索點處允許多種模式獨立地進行編碼交互,因此支持推理。我們依靠這些發現,來研究如何改進我們的神經網絡模型以增強神經網絡中的推理。

那麼DeepMind是如何來實現這一機制的,我們來看論文中的具體描述。

引入注意力機制,使用多頭來處理記憶跟隨

首先是輸入,我們重點關注EMN的多層綁定權重變體,因為它與我們的體系結構最為相似。與EMN輸入不同,我們並沒有使用手工編碼的位置嵌入,而是將每個句子中的單詞Xi和它們在輸入中的獨熱編碼(嵌入為Ci)組合起來:

通過線性投影傳遞這個向量,然後通過一種注意力機制,可以靈活地捕捉輸入語句的任何部分。MEMO使用多頭(heads)來處理記憶跟隨,每個頭對相同的公共輸入Ci有不同的觀測。令H表示頭的總數,H索引特定的頭,對於每個H∈{1,…, H}, 參考EMN方法我們有:

W (h) k 、 W(h) v 和 W (h)q 為鍵(key)、值(value)和查詢(query)的嵌入矩陣。輸出為三個d維向量。將每項分隔到不同內存中,可以讓我們在執行內存查找時了解如何對每項進行加權。

其次,注意力機制。與EMN不同的是,本文的注意力機制由於輸出是多頭的緣故,這裡的注意力機制也同樣為多頭。另外,我們還採用了DropOut 和 LayerNorm的方法來提高泛化和學習動力。加入注意力機制的模型表達式變為如下:

最後,停止策略。在前面的部分中,我們描述了MEMO如何針對一個輸入查詢,輸出多個潛在的答案,以及如何學習一個有效的答案所需要的計算步驟。

為了做出這個決定,我們在每一步都收集了一些信息,並使用它來創建觀察點。然後,通過門控循環單元(GRU)處理該觀測結果,後跟一個 MLP(定義了一個二進位策略和近似價值函數V (St,θ))。

該網絡的輸入St由當前時間步長Wt與前一個時間步長Wt1的注意權值之間的Bhattacharyya距離構成(Wt和Wt1均在softmax之後),同時以迄今為止所採取的一系列步驟的數量作為一個獨熱向量t。

我們構建St背後的想法是,如果注意力集中在同一記憶的槽位上進行太多連續的步驟,則沒有理由繼續查詢,因為檢索到的信息將是相同的,即網絡已經穩定,到了一個可以停止的固定點。

配對聯想推斷和隨機生成圖最短路徑表現搶眼

配對聯想推斷

左邊的面板顯示了一個存儲區,其中充滿了隨機的圖像對。右邊的面板顯示(從左到右)兩個不需要推理的「直接」查詢(AB和BC),以及一個需要推理的「間接」查詢(AC)。

在較小的set,A-B-C 上,MEMO能夠與DNC一起達到最高的準確率,而EMN與UT不能準確的解決這個推理測試。對於較長的序列,如長度為4和5的序列,MEMO是唯一能夠成功回答最複雜推理查詢的架構。

隨機生成圖的最短路徑

10個節點的簡單情況,UT、DNC、MEMO都能有較高的預測精度,隨著節點數增加到20,複雜度也增加的時候,只有MEMO能夠達到較高預測精度。

在bAbI數據集中達到SOTA效果

本文中,我們對支持推理的記憶表示形式進行了深入的研究,並引入了MEMO,這是對現有記憶架構的擴展,在這些推理任務中有了期望的結果。MEMO展示了一項新任務——配對聯想推理——的最新成果,在這個任務和一個具有挑戰性的圖遍歷任務中,MEMO是解決長序列的惟一架構。

此外,MEMO能夠解決bAbI數據集的20個任務,具備了目前最先進的性能,而這種靈活加權是通過將記憶中單個事實的獨立存儲與強大的注意機制相結合來實現的。

相關焦點

  • DeepMind重磅發布:概率樹因果推理算法
    近日,DeepMind發布了概率樹因果推理算法:提出了離散概率樹中因果推理的具體算法,覆蓋全部因果層次(關聯、幹預和反事實),並對任意命題和因果事件進行操作。該工作將因果推理的領域,擴展到非常通用的的離散隨機過程。
  • Deepmind "預測地圖"論文背後:神經科學或將助力深度學習迎來新突破
    2017年10月2日,《NATURE NEUROSCIENCE》發表了Deepmind的一篇《The hippocampus as a predictive map》的論文。這篇論文中,Deepmind通過對主管人類長期記憶行為的「海馬體」(hippocampus)神經元活動的研究,進一步提出了可以轉化為神經網絡架構的「預測圖」理論。
  • 谷歌DeepMind 的可微分神經計算機 DNC 怎麼樣?看 Facebook AI...
    近日,谷歌的 AI 部門 DeepMind 開發了一種叫做可微分神經計算機(DNC)的神經網絡模型,相關論文發表於 10 月 12 日在線出版的《自然》雜誌上,題為《 利用神經網絡與外部動態存儲器進行混合計算》。這種新模型將神經網絡與可讀寫的外部存儲器結合,既能像神經網絡那樣通過試錯和樣本訓練進行深度學習,又能像傳統計算機一樣處理數據。
  • 深度學習之Google Deepmind的Alphago人工智慧算法技術演變歷程
    ,我覺得更多的是要考慮該算法在該類問題上如何去刻畫出人類的直覺、經驗判斷、邏輯推理等。最近大家比較關心的圍棋人機大戰(Alphago vs 李世石)中,deep mind基於Nature2016文章的Alphago在5局制的比賽中已經取得了4-1的獲勝。
  • NVIDIA BERT 推理解決方案 Faster Transformer 開源了
    本文將介紹 NVIDIA GPU 計算專家團隊針對 Transformer 推理提出的性能優化方案:Faster Transformer。Faster Transformer 是一個 BERT Transformer 單層前向計算的高效實現,其代碼簡潔明了,後續可以通過簡單修改支持多種 Transformer 結構。
  • 英偉達GPU「屠榜」,谷歌TPU「退賽」,MLPerf最新推理榜單出爐
    曉查 發自 凹非寺量子位 報導 | 公眾號 QbitAIMLPerf推理基準測試第二版(v0.7)近日發布。△ 圖片來自英偉達官方英偉達在官方博客中稱,英偉達在第二版MLPerf推理榜中贏得了數據中心和邊緣計算系統六個應用領域的所有測試。可以看出,每項任務的前五名都被英偉達的AI加速硬體佔據,包括DGX A100、Quadro RTX專業卡以及T4。
  • DeepMind 提出壓縮 Transformer,並開源書本級數據集PG-19
    而另一方面,為了提升對基於長程記憶的推理問題的研究,DeepMind的研究人員也開發了一個書籍級別的語言數據集PG-19。這個新的基準是目前已有的長時記憶基準的兩倍還多,包含的上下文文本是長程語言模型基準測試WikiText-103的10倍以上。
  • DeepMind重大突破:DNN具有人類行為,認知心理學破解黑箱
    編者按:本文由微信公眾號編譯,來源:deepmind.com 等,作者:DeepMind、Brian Mingus,編譯:熊笑;36氪經授權發布。DeepMind 最新研究:將認知心理學首次引入深度神經網絡研究從識別和推理圖像中的物體,到以超人的水準玩 Atari 和圍棋遊戲,深度神經網絡已經學會完成很多了不起的任務。而隨著這些任務和網絡結構變得越來越複雜,神經網絡學習得到的解決方案也變得越來越難以理解。這就是著名的「黑箱」問題。這一問題已隨著神經網絡在現實世界中越來越多的應用而日益凸顯。
  • 受啟於做夢,DeepMind 提出壓縮 Transformer,並開源書本級數據集PG...
    而另一方面,為了提升對基於長程記憶的推理問題的研究,DeepMind的研究人員也開發了一個書籍級別的語言數據集PG-19。這個新的基準是目前已有的長時記憶基準的兩倍還多,包含的上下文文本是長程語言模型基準測試WikiText-103的10倍以上。
  • Deepmind 開發可微分神經計算機: 我們離會推理的機器人還有多遠
    神經網絡是一個互聯的系統,它模仿生物神經網絡運行,比如大腦的工作模式。在最近取得的各項人工智慧成就中,神經網絡扮演了關鍵角色。例如,在數字助手,如 Google Voice、Siri 中增強語音識別能力。在之前的研究中,神經網絡只能連接自有網絡所包含的數據。
  • 谷歌地圖如何使用DeepMind的AI來預測你的到達時間?
    谷歌表示,它的新模型在一些城市將谷歌地圖的實時ETA的準確性提高了50%。它還指出,在COVID-19爆發以及隨後道路使用情況發生變化後,它不得不改變用於進行這些預測的數據。&34;&34;谷歌地圖產品經理Johann Lau寫道。
  • DeepMind開源Sonnet:可在TensorFlow中快速構建神經網絡
    還有更多的發布版即將到來,並且它們將出現在我們新的開源頁面:https://deepmind.com/research/open-source/與 Torch/NN 類似,Sonnet 庫使用面向對象的方法,允許創建定義一些前向傳導計算的模塊。模塊用一些輸入 Tensor 調用,添加操作到圖裡並返回輸出 Tensor。
  • DeepMind最新研究解決災難性遺忘難題
    DeepMind研究人員通過在函數空間中引入貝葉斯推理,使用誘導點稀疏GP方法和優化排練數據點來克服這個問題。今天和大家分享這篇Reddit高贊論文。這篇由DeepMind研究團隊出品的論文名字叫「Functional Regularisation for Continual Learning」(持續學習的功能正規化)。
  • DeepMind最新研究動向,幫助實現單智能體多任務強化學習
    項目 GitHub:https://github.com/deepmind/lab/tree/master/game_scripts/levels/contributed/dmlab30DeepMind 近期的研究嘗試探索在多個任務上訓練單個智能體。
  • 最讓馬斯克恐懼,不斷探索AI極限的先行者—Deepmind
    在被谷歌收購前,Deepmind通過人工智慧的無監督學習算法打爆了57個atari遊戲,即八九十年代國內也很流行的小霸王卡帶遊戲。直到今年7月接受紐約時報採訪,馬斯克依然認為Deepmind是他最為關注(Top Concern)的AI公司,他依然深信AI可以超越甚至毀滅人類。雖然嘴上說不要,但身體卻很誠實,他除了是Deepmind的天使投資人,還是他引薦給谷歌投資的。
  • 生物學50年難題被DeepMind解決了,蛋白質版「阿法狗」預測結構準確...
    △圖源:Deepmind兩年前,上一版本的AlphaFold便已經取得了裡程碑的突破,但是,仍然沒有完全解決蛋白質摺疊問題。而這次AlphaFold 2,則更進一步。這一巨大的突破,直接引爆了全網,Nature、Science紛紛報導,生物屆和AI大牛們也紛紛祝賀。
  • 向李昌鈺學破案,這是Deepmind預測蛋白質結構的秘密研究方法嗎?
    眾所周知,全世界頂級的圍棋選手人工智慧阿法狗之父,Deepmind公司最近又因為在生命科學領域的成就,上了科技界的熱搜榜。這個小成就就是,新的算法AlphaFold 可以僅根據基因預測生成蛋白質的三維形狀。可惜,公司並沒有公布這個算法的論文。我們就這樣放棄嘛?
  • 從AlphaGo到蛋白質摺疊,Deepmind在不斷捅破AI領域的天花板!
    Deepmind最初由三名科學家聯合創辦,就像其創始人兼CEO哈薩比斯(Demis Hassabis)所說的,它的性質更像一個科技研究院而不是創業公司,因為公司一開始並沒有任何產品,而是一直在通過遊戲來研究人工智慧算法。在被谷歌收購前,Deepmind通過人工智慧的無監督學習算法打爆了57個atari遊戲,即八九十年代國內也很流行的小霸王卡帶遊戲。
  • Facebook AI的DETR,一種基於Transformer的目標檢測方法
    utm_source=blog&utm_medium=facebook-detection-transformer-detr-a-transformer-based-object-detection-approach使用流行的YOLO框架進行目標檢測的實用指南https://www.analyticsvidhya.com/blog/2018/12/practical-guide-object-detection-yolo-framewor-python
  • 英國人工智慧簡史:從艾倫圖靈到DeepMind
    馬爾,他們意識到,人類的認知過程可以被視為一種計算方式,並被模仿為電腦程式。在全球以及在英國,人工智慧經歷了向前發展的階段,也有相對停滯的時期(通常被稱為「人工智慧的冬天」)。其中一個重大事件發生在1973年,,詹姆斯·萊特希爾(Sir James Lighthill)發表了關於人工智慧的報告,該報告建議將人工智慧資金集中在少數幾所英國大學。