DeepMind提出可微分邏輯編程,結合深度學習與符號程序優點

2020-12-12 搜狐網

  夏乙 編譯自 DeepMind Blog

  神經網絡的強大功能有目共睹,但它往往需要大量與目標測試領域數據分布相似的訓練數據;而用於符號領域的歸納邏輯編程只需少量數據,卻無法對抗噪聲,適用領域也很狹窄。

  DeepMind在最近發表的一篇論文中,提出了可微分歸納邏輯編程方法?ILP,既能解決傳統歸納邏輯編程擅長的符號類任務,也對噪聲數據、訓練集中的誤差有一定容忍度,還可以通過梯度下降來訓練。

  怎麼樣?我們來看看DeepMind在官方博客上對這種方法的解讀:

  

  想像一下踢足球的場景,球到了你腳下,你決定把它傳給沒人盯防的前鋒。這個看似簡單的行為,需要兩種不同的思維。

  首先,你認識到自己腳下有一個球,這需要的是直觀的感性思維——你沒辦法簡單地描述出你是怎麼知道腳下有個球的。

  其次,你決定把球傳給特定的一個前鋒。這個決策需要概念性思維,你的決定依賴於理由——你把球傳給這個前鋒的原因,是沒有人盯防她。

  這種區別對我們來說很有意思,因為這兩類思維對應著兩種不同的機器學習方法:深度學習和符號程序合成(symbolic program synthesis)。

  深度學習專注於直觀的感性思維,而符號程序合成專注於概念性的、基於規則的思考。這兩個系統各有各的優點,深度學習系統能適用於噪聲數據,但難以解釋,而且需要大量訓練數據;符號系統更易於解釋,需要的訓練數據也更少,但一遇到噪聲數據就不行了。

  人類認知將這兩種截然不同的思維方式無縫結合在了一起,但想要把這種結合複製到一個AI系統裡,我們還不太清楚是否可能、如何做到。

  我們最近在《JAIR》期刊(Journal of AI Research)上發表的論文表明,系統可以將直觀的感性思維和概念性的可解釋推理結合起來。我們所描述的?ILP(可微分歸納邏輯編程,Differentiable Inductive Logic Programming)系統具有下列特性:抗噪聲、數據上很經濟、能產生可解釋的規則。

  

  我們用一個歸納任務來演示?ILP的工作原理:

  已知一對表示數字的圖片,系統需要根據左側圖像數字是否小於右側圖像的數字,輸出0或1的標籤,如下圖所示:

  

  解決這個問題涉及兩種思維方式。從圖像中認出數字,需要直觀的感性思維;要整體理解「小於」關係,則需要概念性的思考。

  其實,如果給標準的深度學習模型(例如帶有MLP的卷積神經網絡)提供足夠的訓練數據,它能學會有效地解決這個問題,訓練完成後給它一對從未見過的新圖像,它也可以正確分類。

  但實際上,只有每對數字你都給它多個樣例,它才能正確地泛化。這個模型擅長視覺上的泛化,比如說測試集中的每一對數字它都見過了,要泛化到新的圖像,就很容易(見下圖綠色方塊)。但它不適用於符號的泛化,比如說它就不能泛化到從未見過的數字(見下圖藍色方塊)。

  

  馬庫斯(Gary Marcus)、Joel Grus等研究者最近都撰文指出了這一點。

  不同於標準的神經網絡,?ILP能夠進行符號的泛化;它和標準的符號程序也不一樣,可以進行視覺上的泛化。?ILP從樣例中學習可讀、可解釋、可驗證的,明確的程序。已知部分樣例(也就是預期的結果,下圖中的desired results),?ILP能生成一個滿足需求的程序。它用梯度下降從程序空間中搜索,如果程序的輸出與參考數據需要的輸出相衝突,系統就會修改程序以更好地匹配數據。

  ?ILP的訓練過程如下圖所示:

  

  ?ILP能進行符號性的泛化,給它足夠多x<y、y<z、x<z的樣例,它就能考慮到「小於」關係可能具有傳遞性。一旦它掌握了這條一般規則,就可以將它應用到從未見過的新數字對上去。

  

  上圖總結了我們的「小於」實驗:藍色曲線表示標準的深度神經網絡,無法正確泛化到從未見過的數字對,相比之下,在只用40%數字對訓練過的情況下,綠色曲線表示的?ILP依然能保持較低的測試誤差。這表明,?ILP能夠進行符號性的泛化。

  我們相信,對於深度神經網絡中是否能夠實現符號泛化這個問題,我們的系統能夠在某種程度上給予答案。今後,我們計劃將類似?ILP的系統集成到強化學習智能體以及更大的深度學習模塊中,賦予系統推理、反應的能力。

  相關論文:

  Learning Explanatory Rules from Noisy Data

  Richard Evans, Edward Grefenstette

  http://www.jair.org/media/5714/live-5714-10391-jair.pdf

  原文地址:

  https://deepmind.com/blog/learning-explanatory-rules-noisy-data/

  —

相關焦點

  • Google Deepmind最新開發的可微分神經計算機是什麼?
    本周《自然》發表的研究Hybrid neural computing using a dynamic external memory描述了一種集神經網絡與計算機優點於一身的混合型學習機器。傳統計算機可以處理複雜的數據形式,但是需要手工編程來執行這些任務。
  • DeepMind可微分神經計算機DNC開源 內部架構原理首次曝光
    在去年10月,DeepMind 發表於 Nature 的一篇論文中,他們提出了一種叫做「可微分神經計算機」(DNC)的混合計算系統,將神經網絡和一個外部存儲器相結合。這個混合的計算系統既擁有神經網絡可以從數據中學習的優勢,也能夠存儲學到的知識——複雜的結構化數據。通過這個外部存儲器,DeepMind 對神經網絡進行了「記憶」增強,克服了神經網絡無法長時間保存數據的缺點。
  • Yann LeCun:深度學習已死,可微分編程萬歲!
    【新智元導讀】LeCun又發表驚人言論,繼昨天參與深度學習論戰、噴機器人Sophia後,今天他在Facebook主頁發文,稱「深度學習已死,可微分編程萬歲!」深度學習真的死了?而可微分編程又是什麼呢?LeCun又語出驚人了,這次直指深度學習——好,深度學習作為一個流行詞,現在時效已過。
  • 普林,DeepMind新研究:結合深度學習符號回歸,深度模型中看見宇宙
    符號模型緊湊,具備可解釋性和良好的泛化能力,但很難處理高維機器學習問題;深度模型擅長在高維空間中學習,但泛化性和可解釋性卻很差。那麼有沒有什麼辦法可以取二者之所長呢?這項研究做到了。如何將深度模型轉換為符號方程?
  • 微分萬物:深度學習的啟示
    這就是微分編程的思想。深度學習技術的快速發展為微分編程提供了趁手的工具,也為計算物理開闢了一番新天地。文章介紹微分編程的基本概念,並舉例說明它在建模、優化、控制、反向設計等物理問題中的應用。關鍵詞  微分編程,自動微分,計算物理深度學習在做什麼?對於這個問題,人們的第一反應往往是「訓練人工神經網絡」。
  • 谷歌DeepMind 的可微分神經計算機 DNC 怎麼樣?看 Facebook AI...
    賈揚清,擁有加州大學伯克利分校計算機科學博士學位、清華大學碩士學位和學士學位,曾於新加坡國立大學、微軟亞洲研究院、NEC美國實驗室、Google Brain工作,現任 Facebook 研究科學家,主要負責前沿AI 平臺的開發以及前沿的深度學習研究
  • Lecun說的可微分編程是什麼?
    —— 關注獲取更多科技前沿知識 ——隨著曠視、華為開源其深度學習框架以及各種開源的深度學習算法庫的湧現,可以說目前的深度學習庫正在百花齊放
  • 【深度學習會被可微分編程取代?】展望30年後的神經網絡和函數編程
    」的驚人發言下,可微分編程的概念引發了廣泛關注。機器學習著名博主colah(Christopher Olah)在2015年展望30年後的深度學習,提到了可微分編程。他從深度學習三大觀點之一的表示(representation)角度出發,認為深度學習研究的是優化和函數編程之間的聯繫,而可微分編程則是函數編程和優化的自然交集,十分優雅而簡潔,值得進一步研究。目前,深度學習是一個非常成功的工具。
  • 「深度學習被可微分編程取代?」展望30年後的神經網絡和函數編程
    【新智元導讀】在Yann LeCun「深度學習已死」的驚人發言下,可微分編程的概念引發了廣泛關注。機器學習著名博主colah(Christopher Olah)在2015年展望30年後的深度學習,提到了可微分編程。
  • AI 四巨頭 Google、DeepMind、Microsoft、Uber 深度學習框架大比拼
    GPipe、Horovod、TF Replicator和DeepSpeed分別是這四家公司開發應用的深度學習框架,它們結合了深度學習研究及其基礎設施的前沿技術,以提高深度學習模型的訓練效率。這四個深度學習框架各有什麼特點和優勢呢?本文將對此做一個基本介紹。
  • 深度學習+符號表徵=強大的多任務通用表徵,DeepMind新論文可能開啟...
    雷鋒網 AI 科技評論按:在深度神經網絡大行其道的現在,雖然大家總說要改善深度學習的可解釋性、任務專一性等問題,但是大多數研究論文在這些方面的努力仍然只像是隔靴搔癢。所以,假設一個系統從零開始學習不同的任務,那麼除了它學習到的最初的表徵之外,之後的所有的學習都像是遷移學習,學習的過程也將是一如既往地不斷積累的、連續的、終生持續的。在這篇論文中,DeepMind 提出的構建一個這樣的系統的方法其實源於經典的符號化 AI 的啟發。
  • LeCun最新演講:深度學習大革命來了,可微分編程潛力巨大
    他介紹了當前AI的一些最新進展,FAIR在計算機視覺領域提出的一些最先進的架構。他提到,未來還會出現更多的有關深度學習的變革,比如說更複雜的架構,同時也會出現更多的新理論。今天上午在北京舉行的GMIC大會上,Facebook首席AI科學家Yann LeCun進行了主題演講。他介紹了當前AI的一些最新進展,FAIR在計算機視覺、機器翻譯等領域提出的一些最先進的架構。
  • 結合符號主義和DL:DeepMind提出端到端神經網絡架構PrediNet
    DeepMind 最近的一項研究將符號人工智慧和深度學習結合起來,提出了一種新型端到端神經網絡架構 PrediNet。符號主義和連接主義是人工智慧領域中的兩大流派。符號主義(Symbolism)是一種基於邏輯推理的智能模擬方法,又稱為邏輯主義 (Logicism)、心理學派 (Psychlogism) 或計算機學派 (Computerism),其原理主要為物理符號系統(即符號作業系統)假設和有限合理性原理。符號主義認為人工智慧起源於數理邏輯,人類認知(智能)的基本元素是符號(symbol),認知過程是符號表示上的一種運算。
  • 用NumPy寫深度模型,用Julia可微分編程寫函數,這是WAIC開發者日
    Viral 在開發者日表示,只有內嵌可微編程系統,Julia 才能更適合深度學習開發,適合更廣的科學運算。在本次的開發者日上,作為 Julia 創始人之一的 Viral B. Shah 博士重點介紹了為什麼 Julia 適合做機器學習開發,以及 Julia 在科學計算與機器學習上的可微分編程探索。
  • NumPy、AI基礎設施可微分編程、技術實踐,這是一場開發者的盛會
    Julia 創始人 Viral Shah:可微分編程2018 年初,現代人工智慧開拓者之一、圖靈獎得主 Yann Lecun 曾在 Facebook 上表示:「深度學習已死,可微分編程萬歲」。可微分編程是深度神經網絡背後成功理念的歸納和總結。
  • Deepmind "預測地圖"論文背後:神經科學或將助力深度學習迎來新突破
    2017年10月2日,《NATURE NEUROSCIENCE》發表了Deepmind的一篇《The hippocampus as a predictive map》的論文。這篇論文中,Deepmind通過對主管人類長期記憶行為的「海馬體」(hippocampus)神經元活動的研究,進一步提出了可以轉化為神經網絡架構的「預測圖」理論。
  • NIPS 2018 | MIT等提出NS-VQA:結合深度學習與符號推理的視覺問答
    MIT、哈佛等機構合作的一項研究提出了一種神經符號視覺問答(NS-VQA)系統,將深度表徵學習與符號程序執行結合到了一起。該研究的論文已被 NIPS 2018 接收。:用於視覺識別和語言理解的深度表徵學習,以及用於推理的符號程序執行。
  • DeepMind悄咪咪開源三大新框架,深度強化學習落地希望再現
    OpenSpielGitHub:https://github.com/deepmind/open_spiel遊戲在 DRL agent的 訓練中發揮著重要作用。與其他數據集一樣,遊戲本質上基於試驗和獎勵機制,可用於訓練 DRL agent。但是,正如我們所想,遊戲環境的複雜度還遠遠不夠。
  • 《自然》雜誌:「可微分神經計算機」問世
    英國《自然》雜誌12日發表了一項人工智慧重要成果,描述了一種集神經網絡與計算機優點於一身的混合型學習機器,既能像神經網絡那樣學習,又能像計算機那樣處理複雜數據
  • DeepMind提出SPIRAL:使用強化對抗學習,實現會用畫筆的智能體
    近日,DeepMind 發布博客,提出一種結合了對抗訓練和強化學習的智能體 SPIRAL。該智能體可與繪圖程序互動,在數位畫布上畫畫、改變筆觸的大小、用力和顏色,並像街頭藝人一樣畫畫。這與最近的研究《A Neural Representation of Sketch Drawings》恰恰相反,後者目前仍依賴於從人類演示中學習,是一個時間密集型的過程。DeepMind 設計了一種深度強化學習智能體,該智能體可與計算機繪圖程序(http://mypaint.org/)互動,在數位畫布上畫畫、改變筆觸的大小、用力和顏色。