周志華組最新論文提出「溯因學習」,受瑪雅文字啟發的神經邏輯機

2020-12-03 新智元

【新智元導讀】南京大學周志華教授等人在最新的一篇論文中提出了「溯因學習」(abductive learning)的概念,將神經網絡的感知能力和符號AI的推理能力結合在一起,能夠同時處理亞符號數據(如原始像素)和符號知識。實驗中,基於溯因學習框架的神經邏輯機NLM,在沒有圖像標籤的情況下,學會了分類模型,能力遠超當前最先進的神經網絡模型。作者表示,就他們所知,溯因學習是首個專門為了同時進行推理和感知而設計的框架,為探索接近人類水平學習能力的AI打開了新的方向。

假設你在踢足球,球來了,你把球傳給隊友,「傳球」這一個動作,實際上涉及兩種不同的思維過程。

首先,你需要意識到腳下有個球,相當於識別(感知);其次,你需要判斷把球傳給哪個隊友,這是推理的結果——傳給A不傳給B,是因為A沒有人防守,而B被兩個人盯著。

在人類的大腦中,感知和推理這兩種思維過程無縫銜接,甚至可以同時完成。但是,如今的AI系統還無法做到。在當前的機器學習系統中,感知和推理往往是不兼容的。

為了解決這個問題,南京大學的戴望州、徐秋靈、俞揚和周志華,在他們的論文《使用溯因學習打通神經感知和邏輯推理》(Tunneling Neural Perception and Logic Reasoning through Abductive Learning)中,提出了溯因學習(abductive learning)的概念。

溯因學習(abductive learning)能像人一樣歸納推理,結合了神經網絡的感知能力和符號AI的推理能力。基於溯因學習提出的神經邏輯機NLM(Neural-Logical Machine),能夠同時處理亞符號數據(如原始像素)和符號知識。實驗中,NLM僅從原始像素中學會了符號間的邏輯關係,能力遠超當前最先進的神經網絡模型,也即雙向LSTM和DeepMind的可微分神經計算機(DNC)。

作者表示,就他們所知,溯因學習是首個專門為了同時進行推理和感知而設計的框架,為探索接近人類水平學習能力的AI打開了新的方向。

而這項研究的靈感,則來自於考古學家破譯瑪雅文字的過程。

研究靈感源自考古學家破譯瑪雅文字:視覺感知+數學推理如何相互影響?

瑪雅文字對於現代人類而言完全是一個謎,直到在19世紀末瑪雅文字的數字系統和日曆被成功破譯。正如歷史學家所描述的那樣,對瑪雅數字的識別來源於一些顯示出數學規律的圖像。由於瑪雅的數字系統是二十進位的,與目前普遍使用的十進位系統完全不同,所以破譯這個系統非常艱難。瑪雅數字的成功解讀反映了兩種顯著的人類能力:1)視覺上感知圖像上單個的字;2)在感知過程中基於數學背景知識進行推理。這兩種能力同時作用,相互影響。此外,這兩種能力常常被人類潛意識地聯繫在一起,這是許多現實世界中學習問題的關鍵。

現代人工智慧(AI)系統具有這兩種能力,但它們是孤立的。深度神經網絡在識別人臉、物體、語音方面取得了驚人的性能;基於邏輯的AI系統在證明數學定理,以及關係推理方面已經達到了人類的水平。然而,識別系統很難在符號形式中利用複雜的領域知識,感知信息很難納入推理系統,而推理系統通常需要語義層面的知識,這涉及到人類的輸入或監督。

即使最新的神經網絡模型中,具有增強記憶能力、關注關係的能力和可微分知識表示,但是完全邏輯推理能力仍然是缺失的。為了把感知和推理結合起來,關鍵是要回答這樣一個問題:在一個系統中,感知和推理應該如何相互影響?

破譯瑪雅象形文字的例子

圖1:破譯瑪雅象形文字的圖解

為了尋找答案,讓我們回到查爾斯 鮑迪奇(Charles P. Bowditch)破譯瑪雅數字的過程,這些瑪雅數字被刻成神的頭。圖1說明了這個過程。圖1(A)展示了在帕倫克發現的三片牌碑的部分。第一片(I—II列)使用標準象形文字表示瑪雅的時間單位,例如,在II5處的「Tun」(表示「360天」)以及所有三個碑文上的第二行都有這個符號。第四和第六列以完全不同的方式繪製了這些符號,但是鮑迪奇推測,根據它們的位置,它們與第二列意思是一樣的。此外,雖然瑪雅數字系統是二十進位的,但「Tun」單位只是其前一個單位「Winal」(所有偶數列的第6行)的18倍,這使解密更加困難。

鮑迪奇通過計算和評估這些碑文之間關係的一致性來驗證這一點。然後,他開始解讀第III列的數字。如圖1(B)所示,通過將象形符號映射到不同的數字,然後根據數學規則檢查這些數字是否一致, 鮑迪奇最終對這些數字進行了解碼並證明了它們的正確性。

這個解決問題的過程被查爾斯·皮爾斯(Charles S. Peirce)稱為「溯因」(abduction),司馬賀(Herbert A. Simon)稱其為「Retroproduction」。它指的是根據背景知識有選擇地推斷某些事實和假設以解釋現象和觀察的過程。在鮑迪奇破譯瑪雅數字這一過程中,背景知識包括算術、關於瑪雅曆法的一些基本事實;假設包括一個將象形符號映射為有意義的符號的識別模型,以及對瑪雅曆法系統的更全面的理解。最後,通過反覆試驗和一致性檢查來確保假設的有效性。

溯因學習(Abductive Learning):首個為了同時進行推理和感知而設計的框架

受到人類的溯因問題解決過程的啟發,作者提出了「Abductive Learning」框架,該框架使機器學習中感知能力和推理能力的結合得以實現。

一般來說,機器學習是一個在大的假設空間中搜索一個最優模型的過程。約束條件被用來縮小搜索空間。大多數機器學習算法利用數學公式顯式表達的約束。但是,就像解碼瑪雅語言時要使用其他領域的知識一樣,現實世界的任務中,許多複雜的約束都是以符號規則的形式表示的。而且,這種象徵性的知識可能是不完整的,甚至是不準確的。Abductive Learning使用邏輯溯因來處理不完美的符號推理問題。如果把領域知識寫成一階的邏輯規則,那麼Abductive Learning就可以外展(abduce)多種假設來作為觀察到的事實的可能解釋,正如鮑迪奇在「嘗試」這個步驟中,基於他對算術和瑪雅語言的知識來對這些未知的象形文字進行猜測。

傳統的基於邏輯的AI為了利用一階邏輯規則寫成的領域知識,根據輸入的邏輯基礎,使用規則進行邏輯推理,所推理的是領域內對象之間關係的邏輯事實。事實上,這隱含地假設了對象和關係的絕對存在。然而,正如斯圖爾特·羅素(Stuart Russell)評論的那樣,「現實中的物體很少會帶有獨特的標識符,也不會像演出劇本那樣預先宣布它們的存在」。因此,溯因學習利用神經感知自動從數據中提取符號;然後,邏輯溯因被應用於神經感知的一般化結果。

溯因學習的關鍵是要發現邏輯溯因(logical abduction)和神經感知(neural perception)可以怎樣同時訓練。當一個可微的神經感知模塊被耦合到一個非可微的邏輯溯因模塊時,學習系統的優化就變得非常困難:因為傳統的基於梯度的方法不適用了。與鮑迪奇解碼瑪雅文字類似,溯因學習使用啟發式試錯搜索方法(heuristic trial-and-error search approach)來結合這兩個功能。

邏輯溯因作為一個離散的推理系統,可以很容易地處理一組符號輸入。感知模塊的神經層應當輸出使符號假設彼此一致的符號。當假設不一致時,邏輯溯因模塊從神經感知模塊中發現不正確的輸出,並對其進行糾正。這個過程就是鮑迪奇在圖1(B)中所遵循的試錯過程。校正函數作為監督信號來訓練神經感知模塊。

為了驗證溯因學習的有效性,作者實現了一個神經邏輯機( Neural Logical Machine ,NLM)來演示這個溯因學習框架。圖2展示了一個用於分類手寫等式的NLM的架構。分類手寫等式就是讓機器從一組標記好的等式中學習,訓練好的模型可以正確地預測未來的等式。這個任務與破譯瑪雅象形文字十分類似:機器沒有提前知道象形文字或計算規則的含義,並且需要同時使用感知和推理。

圖2:神經邏輯機(NLM)的架構。(A)感知神經層(例如卷積層)完成感知任務。(B)感知層的結果用作邏輯層的輸入,由神經邏輯通道,Prolog模塊和關係特徵組成。Prolog模塊用於檢查輸入一致性並生成關係特徵; 神經邏輯通道根據與假設的一致性來校正感知輸出;關係特徵揭示了邏輯過程的結果。(C)決策神經層將關係特徵轉換成最終輸出。

啟發式試錯法搜索(heuristic trial-and-error search)是在神經邏輯通道中使用無梯度優化( derivative-free optimization)實現的。儘管邏輯層可以發現邏輯規則和感知符號之間的不一致性,但是它不能找到錯誤符號的位置。

NLM採用無梯度的優化方法來猜測符號出現錯誤的位置。對每一個猜測,Prolog模塊運行溯因邏輯程序(abductive logical programming,ALP),以確定正確的符號出現在指定的位置,使邏輯假設更加一致。我們通過在每次訓練迭代期間僅提供可用訓練數據的樣本來進一步加速NLM。從數據集樣本中,只能得到局部一致的假設。最後,NLM使用命題式技術(propositionalization technique)將局部一致的假設轉化為關係特徵。

作為一個人類解決問題過程的類比,NLM的工作方式如下:在訓練之前,將提供給第一級邏輯程序的領域知識提供給Prolog模塊。訓練開始後,訓練數據樣本將被解釋為在神經邏輯通道中預定義的候選原語符號。由於感知神經層最初是一個隨機網絡,解釋的符號通常是錯誤的,形成不一致的假設。邏輯層開始修改解釋的符號並在訓練數據樣本中搜索最一致的邏輯假設。假設作為關係特徵存儲在邏輯層中,而符號修正用於以直觀的監督方式訓練感知神經層。

當這兩個子部分的訓練完成時(例如感知層收斂或達到迭代限制),NLM再次處理所有訓練樣本以獲得溯因的關係特徵的特徵向量。最後,決策神經層用這些來自整個數據集的特徵向量進行訓練。決策神經層的學習過程將自動過濾不良感知神經層、假設和關係特徵。此外,由於象徵溯因的高度複雜性,我們採用課程學習(curriculum learning)的範式來訓練NLM(即從更簡單的例子開始學習,學習任務的難度逐漸增加。)

神經邏輯機:性能遠超雙向LSTM和DeepMind的可微分神經計算機

為了驗證神經邏輯機NLM的性能,作者進行了手寫等式識別(Handwritten Equations Decipherment)和任務遷移(Cross-task Transfer)兩項實驗。

在手寫等式識別任務中,輸入是圖像,包括手寫的數字「0」、「1」,符號「+」、「=」,以及外觀類似的符號「≈」、「∝」,系統需要從樣例像素中學習符號之間的邏輯關係,然後判斷測試集中的等式是否成立

圖3:A和B是樣例,系統需要從A和B中學習符號之間的關係,其中,A是手寫數字及符號;B是訓練集,有標籤,表明成立(P)或不成立(N)。C是測試集,測試集並沒有標籤。

作者將NLM的性能與當前最先進的雙向LSTM(BiLSTM)和可微分神經計算機DNC相比較,因為後兩者都能夠解決序列輸入問題,而且是當前的最高基準。尤其是DNC,由於外接存儲器,在符號計算方面展示了很強的潛力。

結果發現,NLM性能要顯著優於兩者,並且使用了更少的訓練樣本。不僅如此,當測試集的公式變長時,BiLSTM和DNC性能快速下降,而NLM卻成功維持了超過80%的正確率。作者表示,這體現了一種接近人類水平的學習能力。

圖4:圖A是NLM與其他方法在手寫公式識別上的結果。紅色代表NLM,隨著公式長度增加(從5個字符到25個),NLM的準確性一直保持在80%以上,但是,DNC(藍色)和BiLSTM(灰色)下降明顯。

作者還檢測了在NLM內部,隨著學習的增加,感知精度有所提高(上圖B)。這一結果表明,邏輯上的一致性可以充當監督信號。

此外,感知能力(圖像識別性能)能夠促進NLM在分類公式時的準確性(上圖C)。

任務遷移(Cross-task Transfer)實驗則驗證了NLM在知識遷移上的性能。詳情參見論文。

結語

受Bowditch解密瑪雅文字的反覆試錯試驗啟發,溯因學習將符號推理與表示感知連接起來,得益於一階邏輯的表達力,還能直接利用通用的領域知識。

作者表示,他們還將繼續改進和完善溯因學習框架,讓AI系統自己學習背景知識,並且讓學到的知識能在其他任務中重用,更進一步接近人類水平的學習能力。

論文地址:https://arxiv.org/pdf/1802.01173.pdf

相關焦點

  • 神經網絡的基礎是MP模型?南大周志華組提出新型神經元模型FT
    選自arXiv作者:張紹群、周志華機器之心編譯在此論文中,來自南京大學的張紹群博士和周志華教授提出一個新型神經元模型 Flexible Transmitter (FT),該模型具備靈活的可塑性並支持複雜數據的處理
  • 深度森林第三彈:周志華組提出可做表徵學習的多層梯度提升決策樹
    自去年周志華等研究者提出了「深度森林」以後,這種新型的層級表徵方式吸引了很多研究者的關注。今日,南京大學的馮霽、俞揚和周志華提出了多層梯度提升決策樹模型,它通過堆疊多個回歸 GBDT 層作為構建塊,並探索了其學習層級表徵的能力。此外,與層級表徵的神經網絡不同,他們提出的方法並不要求每一層都是可微,也不需要使用反向傳播更新參數。
  • 速度提升、準確率更勝一籌,周志華等人提出可微XGBoost算法sGBM
    近日,南京大學周志華, 創新工場馮霽等人提出了一種新型的軟梯度提升機(sGBM),並基於此構建了新型的軟梯度提升決策樹(sGBDT),作為XGBoost的替代性模型。相比於傳統的「硬」GBM,sGBM 在準確度、訓練時間和增量學習,多維度回歸等多方面都有更優的表現。
  • 深度學習盛會ICLR2017最佳論文出爐,雷鋒網帶你10min過重點附論文...
    別看它歷史不長,影響力卻不小,ICLR如今已成為深度學習領域一個至關重要的學術盛事。今年4月,雷鋒網也會親臨ICLR2017大會,為大家從法國帶來最新鮮的一手資料,讓你足不出戶就能感受到全球頂尖ML大牛的雄韜武略。據雷鋒網消息,ICLR論文評選結果於今日新鮮出爐。經過列為評委的火眼金睛,在507份論文中共有15篇論文成功進入口頭展示階段,181篇進入海報展示階段。
  • 如何評價周志華深度森林模型,熱議會否取代深度學習 DNN
    【新智元導讀】昨天,新智元報導了南京大學周志華教授和馮霽的論文「深度森林」,引發很多討論。今天,新智元整理了網上一些評價。中文內容來自知乎,已經取得授權。外網內容來自 Hacker News,由新智元編譯整理。正在看這篇文章的你,也歡迎留下你的看法。
  • 受昆蟲啟發的具有柔性骨架的機器人
    受昆蟲的機構所啟發,機器人的製造與這些自然存在的結構相匹配的人造外骨骼,是當今機器人技術領域的關鍵挑戰。儘管研究人員已經提出了幾種製造工藝和技術來模擬昆蟲靈感的機器人骨骼,但是其中許多方法極其複雜,或者依賴於昂貴的設備和材料。 這使得它們不可行,並且難以在更大範圍內應用。
  • CVPR2020|深度學習不要乘法?北大,華為Oral論文提出加法神經網絡
    雖然無法去現場交流,但這無法阻擋我們學習的熱情。為向讀者們分享更多 CVPR 優質內容,在 CVPR 2020 開幕之前,機器之心將策劃多期線上分享。這是機器之心 CVPR 2020 線上分享的第一期,我們邀請到北京大學智能科學系陳漢亭(論文一作)為我們介紹他們的 Oral 論文《AdderNet: Do We Really Need Multiplications in Deep Learning?》。在此論文中,來自北大、華為諾亞方舟實驗室等機構的作者們提出完全用加法代替乘法,用 L1 距離代替卷積運算,從而顯著減少計算力消耗。
  • ACL論文 | 深度學習大神新作,神經網絡的自然語言翻譯應用
    講座學者之一 Kyunghyn Cho 與深度學習「大神」 Yoshua Bengio、蒙特婁大學學者 Junyoung Chung 在 ACL 大會上發表了論文,進一步展現神經機器翻譯的研究結果。在此,雷鋒網(公眾號:雷鋒網)為大家分享名為《針對神經機器翻譯,無需顯性分割的字符等級解碼器》論文全文。
  • 大腦的記憶能力啟發了AI專家,使神經網絡不再那麼「健忘」
    Baylor的第一作者和博士後研究員Gido van de Ven和首席研究員Andreas Tolias與UMass Amherst的Hava Siegelmann一起在Nature Communications中寫道,他們已經開發出一種新方法來保護「令人驚訝地有效」的深度神經網絡免受「災難性遺忘」 ;「 在學習新課程後,網絡會忘記他們以前學過的東西。
  • 73歲Hinton老爺子構思下一代神經網絡:屬於無監督對比學習
    2018 年,他與 Yoshua Bengio、Yann LeCun 因對深度學習領域做出的巨大貢獻而共同獲得圖靈獎。自 20 世紀 80 年代開始,Geoffrey Hinton 就開始提倡使用機器學習方法進行人工智慧研究,他希望通過人腦運作方式探索機器學習系統。
  • 李開復、馬少平、周志華、田淵棟都是怎麼看AlphaGo Zero的?
    雷鋒網 AI科技評論消息,北京時間10月19日凌晨,Deepmind在Nature上發布論文《Mastering the game of Go without human knowledge》(不使用人類知識掌握圍棋),在這篇論文中,Deepmind展示了他們更強大的新版本圍棋程序「AlphaGo Zero」,驗證了即使在像圍棋這樣最具挑戰性的領域,也可以通過純強化學習的方法自我完善達到目的
  • 超越何愷明等組歸一化 Group Normalization,港中文團隊提出自適配...
    雷鋒網 AI 科技評論:港中文最新論文研究表明目前的深度神經網絡即使在人工標註的標準資料庫中訓練(例如 ImageNet),性能也會出現劇烈波動。這種情況在使用少批量數據更新神經網絡的參數時更為嚴重。研究發現這是由於 BN(Batch Normalization)導致的。BN 是 Google 在 2015 年提出的歸一化方法。
  • 7篇ICLR論文,遍覽聯邦學習最新研究進展
    受無線網絡公平資源分配工作的啟發,本文提出了一種解決聯邦學習中公平問題的優化目標算法 q-FFL(q-Fair Federated Learning)。q-FFL 通過引入 q 參數化的權重,實現了對不同設備損耗的重新加權計算,使得損耗較高的設備具有較高的相對權重,從而減小準確度分布方差,實現準確度更公平的分布。
  • 饒毅等提出腦研究的「化學連接組」新概念
    2019年2月21日,重要國際學術期刊《神經元》發表北京大學饒毅教授實驗室的論文「化學連接組學:繪製果蠅的化學傳遞圖譜」。其摘要明確提出「化學連接組(chemoconnectome,簡稱CCT)是一個新概念,化學連接組學是一個新途徑,應用於果蠅的相關工具是強有力的資源」。
  • 利用類腦器件高效處理神經信號,構建新型腦機接口
    憶阻器的工作機理與人腦中的神經突觸、神經元等具有一定的相似性,基於憶阻器的神經形態計算可以突破傳統計算架構,在實現高並行度的同時顯著降低功耗,因此在腦機接口領域有著巨大的應用潛力。研究團隊受此啟發,通過在腦機接口領域兩年多的交叉學科緊密合作,提出了基於憶阻器陣列的新型腦機接口,實驗製備了具有模擬阻變特性的憶阻器陣列,並構建了基於憶阻器的神經信號分析系統。
  • 物理學對於深度學習可解釋性的啟發
    最近,基於基於物理的概念框架(稱為重整化群(Renormalization RG))和一種稱為受限玻爾茲曼機(RBM)的神經網絡之間的顯著類比,提出了一種可能的解釋。此外,類似於物理學中的RG,神經網絡設法對數據進行分類,例如動物的圖片,而不管其組成部分(例如大小和顏色)。在2014年的一篇論文中,兩位物理學家Pankaj Mehta和David Schwab提供了基於重整化群理論的深度學習表現的解釋。
  • FLIVVER:一種受昆蟲啟發的算法,可估算飛行機器人的速度
    內華達大學的一組研究人員進行了最新的嘗試之一,他們開發了一種算法,該算法受果蠅和其他飛行昆蟲在周圍環境中移動時估計相對運動的機理的啟發。該算法是在arXiv上預先發表的一篇論文中介紹的,該算法基於先前的兩項研究,這些研究探索了昆蟲如何估計距離以及它們的大腦如何處理視覺信息。
  • 深度學習:神經網絡算法的昨天、今天和明天
    針對神經網絡輸出結果與真實結果之間的差異,神經網絡會通過梯度(Gradient)逐層調整相應的權重以縮小差異,從而達到深度學習的目的。二、深度學習的雛形其實,模擬動物的神經活動,並非深度學習的專利。早在1957年,Frank Rosenblatt就提出了感知機(Perceptron)的概念。這是一種只能分出兩類結果的單層神經網絡。
  • 自動化所提出基於腦功能影像時間序列的多尺度卷積循環神經網絡模型
    隨著深度學習技術的發展,循環神經網絡模型(LSTM, GRU等)以其優秀的非線性隱狀態建模能力,在序列分析領域的性能普遍超過了傳統的線性模型。  受此啟發,中國科學院自動化研究所腦網絡組研究中心隋婧研究組提出了多尺度卷積循環神經網絡算法(Multi-scale RNN),該算法能夠直接在時間序列(TC)上使用RNN模型自動學習fMRI的時間-空間特徵,突破了現有fMRI分析「先藉助時間序列構建功能連接矩陣再分類」的傳統框架。在此項研究中,採用了改進GRU模型作為序列處理的基本模型。
  • 納米級邏輯機將超越現有二進位計算範式
    科學家已經用單個原子建造出了新型微型邏輯機,其運行原理與傳統邏輯器件完全不同。不同於如今計算機中電晶體對二進位轉換範式的依賴,新的納米級邏輯機能從物理上模擬問題,並利用在納米量級上物理系統固有的隨機性,而這種隨機性再之前通常被看做是一種缺點。