DeepMind最新發現!神經網絡的性能竟然優於神經符號模型

2021-01-07 網易

  

  新智元報導

  編輯:keyu

  【新智元導讀】DeepMind最新的研究結果再一次打破了傳統認知——根據研究人員的最新發現,神經網絡對數據的要求,居然比神經符號模型還要低!不僅如此,實驗結果證實,神經網絡的在關鍵任務上的效果還要更好。不需要預先訓練,完全無監督,居然這麼神奇?

  按照之前的常識,結合了算法和符號推理技術的神經符號模型(Neurosymbolic Models),會比神經網絡更適合於預測和解釋任務,此外,神經符號模型在反事實方面表現更好。

  而Neural-Symbolic,本質上其實是將現代數學中的分析學和代數學結合的產物。

  分析學擅長處理數值、函數、逼近等問題, 代數學擅長處理推演、抽象、結構等問題,如果能適當將兩者結合,會有很可觀的效果。

  

  然而,近日,DeepMind的研究人員聲稱,在正確的測試條件下,神經網絡的性能會優於神經符號模型。

  與之前的研究結論相反,研究人員認為,對於可以衡量高級認知功能並基於視覺的任務來說,基於分布式表示的神經網絡模型確實表現良好,並已經明顯勝過了現有的神經符號模型。

  

  在論文中,作者描述了一種關於視頻的時空推理的體系結構,此結構可以學習到視頻中的所有成分,並且所有中間的表示都貫穿分布在整個神經網絡層中。

  論文地址:https://arxiv.org/pdf/2012.08508.pdf

  該團隊表示,該體系結構在一個流行的數據集上的所有任務的表現,都超過了神經符號模型,並在反事實問題上優勢最明顯。

  

  這一研究成果,可能會非常有助於設計和開發具有推斷作用的機器。

  該文章提出的神經網絡架構,主要利用注意力機制,來實現對集成信息的高效提取。

  

  有人可能要問了,什麼是注意力機制呢?

  注意力(attention)其實是一個非常常見,但是又會被忽略的事實。比如天空一隻鳥飛過去的時候,往往你的注意力會追隨著鳥兒,天空在你的視覺系統中,自然成為了一個背景(background)信息。

  計算機視覺中的注意力機制(attention)的基本思想,就是想讓系統學會注意力——能夠忽略無關信息而關注重點信息。

  總的來說,注意力機制就是一種一次只專注於一個元素或幾個元素的算法機制。

  對於DeepMind這一研究來說,整個訓練過程都是自我監督的,這意味著該模型必須使用底層的動態機制,來推斷視頻中被掩蓋的對象,以便提取更多信息。

  而且該架構可以確保視頻中的視覺元素與物理對象相對應,論文作者認為,這一步驟對於更高層次的推理至關重要。

  在實驗部分,研究人員將他們的神經網絡與視頻表示和推理的CoLlision事件(也就是CLEVRER數據集)進行了基準比較。

  其中,CLEVRER數據集包含由機器生成的20,000多個5秒鐘的物體碰撞視頻(這幾種物體是三種形狀,擁有八種顏色的兩種材料),以及300,000多個問題和答案。

  

  這些問答都聚焦於邏輯推理的四個要素:描述性(例如,「什麼顏色」 ),說明性(「造成的原因」),預測性(「接下來會發生什麼」)和反事實(「如果某種情況出現,會發生什麼」)。

  

  在這裡小編附上CLEVRER資源連結:

  論文連結:https://arxiv.org/abs/1910.01442

  項目連結:http://clevrer.csail.mit.edu/

  實驗結果表明,在沒有預先訓練,沒有標記數據,且訓練數據少40%的情況下,他們的神經網絡和最佳神經符號模型性能相當,這無疑挑戰了神經網絡比神經符號模型更需要數據這一觀點。

  

  此外,它在最困難的反事實問題上的得分為59.8%(這一得分比機會模型和所有其他模型都好)。

  同時,此模型還可以可以推廣到其他任務,包括CATER(旨在預測目標對象在視頻最後一幀中的位置的對象跟蹤視頻數據集)。

  

  研究人員在論文中寫道:「我們的研究結果證明了在得益於分布式表示的靈活性和表現力的同時,深層網絡可以複製人類認知和推理的許多特性。」

  「神經模型在數學上也取得了一些成功,從直覺上講,該領域需要執行嚴格的規則,需要操縱各種各樣的複雜符號。但是,令人驚訝的是,大型神經語言模型其實並不需要需進行目標任務的明確訓練,也可獲得算術推理和類推的能力。

  這表明,在擴展到更多數據,並使用更大,更高效的體系結構時,當前的神經網絡局限性得到了改善。」

  https://blog.csdn.net/hanss2/article/details/90345517

  https://venturebeat.com/2020/12/21/deepmind-researchers-claim-neural-networks-can-outperform-neurosymbolic-models-on-visual-tasks/

  

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺「網易號」用戶上傳並發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關焦點

  • 谷歌DeepMind 的可微分神經計算機 DNC 怎麼樣?看 Facebook AI...
    近日,谷歌的 AI 部門 DeepMind 開發了一種叫做可微分神經計算機(DNC)的神經網絡模型,相關論文發表於 10 月 12 日在線出版的《自然》雜誌上,題為《 利用神經網絡與外部動態存儲器進行混合計算》。這種新模型將神經網絡與可讀寫的外部存儲器結合,既能像神經網絡那樣通過試錯和樣本訓練進行深度學習,又能像傳統計算機一樣處理數據。
  • 【ICML Oral】DeepMind提出深度學習新方向:神經過程模型
    ,提出神經過程模型,在多任務上實現了很好的性能和高計算效率。高級神經網絡由黑盒函數逼近器構成,它們學習從大量訓練數據點參數化單個函數。因此,網絡的大部分工作負載都落在訓練階段,而評估和測試階段則被簡化為快速的前向傳播。雖然高的測試時間性能對於許多實際應用是有價值的,但是在訓練之後就無法更新網絡的輸出,這可能是我們不希望的。
  • ICLR 2018 DeepMind論文精華一覽
    我們開發了兩種離策略(off-policy)算法,並證明它們可與深度強化學習中的最新技術展開競爭。我們的方法在樣本效率、早熟收斂以及對超參數設置的魯棒性方面優於現有方法。該逼近通過使用鏈式結構線性高斯圖形模型對不同時間步長的梯度貢獻之間的協方差結構進行建模,對各種交叉協方差進行求和並計算倒數。我們在實驗中證明,在幾個具有挑戰性的 RNN 訓練任務上,我們的方法明顯優於通用的最新優化器,如 SGD 和 Adam。
  • Google Deepmind最新開發的可微分神經計算機是什麼?
    Graves et al.本周《自然》發表的研究Hybrid neural computing using a dynamic external memory描述了一種集神經網絡與計算機優點於一身的混合型學習機器。傳統計算機可以處理複雜的數據形式,但是需要手工編程來執行這些任務。
  • DeepMind AI 關係推理超越人類:深度神經網絡模塊即插即用
    新智元編譯來源:deepmind.com;arXiv.org譯者:文強   【新智元導讀】DeepMind 今天發表官博介紹了他們的兩篇最新論文,稱其都在理解「關係推理」這一挑戰方面展示出了令人可喜的結果。
  • 普林,DeepMind新研究:結合深度學習符號回歸,深度模型中看見宇宙
    在機器學習領域,人們通過遺傳算法學習符號模型。這種方法無法針對輸入特徵的數量進行很好地縮放。但深度神經網絡可以高效學習高維空間中的模式。那麼,問題來了,我們可以兼二者之所長嗎?來自普林斯頓大學和 DeepMind 等機構的研究者提出了一種通用方法,通過引入強歸納偏置來提取深度模型的符號表示。
  • DeepMind可微分神經計算機-論文中文解讀
    又是一篇deepmind發表在nature上的文章,還記得前面2篇嗎?一篇是DQN,一篇講AlphaGo。
  • 結合符號主義和DL:DeepMind提出端到端神經網絡架構PrediNet
    DeepMind 最近的一項研究將符號人工智慧和深度學習結合起來,提出了一種新型端到端神經網絡架構 PrediNet。符號主義和連接主義是人工智慧領域中的兩大流派。連接主義 (connectionism),又稱為仿生學派 (bionicsism) 或生理學派 (physiologism),其主要原理為神經網絡及神經網絡間的連接機制與學習算法。人工智慧發展早期,符號主義佔據主要地位。而 20 世紀 90 年代後連接主義發展迅猛,其代表方法是神經網絡,利用多層神經網絡的深度學習當然屬於連接主義。
  • DeepMind可微分神經計算機DNC開源 內部架構原理首次曝光
    在去年10月,DeepMind 發表於 Nature 的一篇論文中,他們提出了一種叫做「可微分神經計算機」(DNC)的混合計算系統,將神經網絡和一個外部存儲器相結合。這個混合的計算系統既擁有神經網絡可以從數據中學習的優勢,也能夠存儲學到的知識——複雜的結構化數據。通過這個外部存儲器,DeepMind 對神經網絡進行了「記憶」增強,克服了神經網絡無法長時間保存數據的缺點。
  • DeepMind解讀,最新長程記憶模型和建基模型
    去年底,為了讓計算機有更長程的記憶和推理,Deepmind發布了一個新的模型和數據集。近日,DeepMind官方博客發表了最新的文章,對此進一步解讀。文章既回顧了計算機處理「記憶「的歷史,也解讀了新的模型和數據集獲得的進展。
  • 淺談神經網絡訓練方法 Deepmind更青睞正向傳播
    深度學習的神經網絡訓練方法有除了典型的反向傳播,也有被Deepmind青睞的正向傳播,以及以BAM網絡背後的雙向傳播,本文將對這些訓練方法進行簡單的探討,如果你有興趣,歡迎留言。1. 典型的BAM網絡深度學習目前非常火爆,追蹤溯源,深度學習源於神經網絡。BP神經是反向誤差訓練的典例。
  • 淺談神經網絡訓練方法,Deepmind更青睞正向傳播
    深度學習的神經網絡訓練方法有除了典型的反向傳播,也有被Deepmind青睞的正向傳播,以及以BAM網絡背後的雙向傳播,本文將對這些訓練方法進行簡單的探討,如果你有興趣,歡迎留言。1. 典型的BAM網絡深度學習目前非常火爆,追蹤溯源,深度學習源於神經網絡。BP神經是反向誤差訓練的典例。
  • DeepMind成功使用認識心理學解釋深度神經網絡黑盒!
    來源:全球人工智慧導讀:最近通過認識心理學研究深度神經網絡案例:我們從發展心理學中選擇了一個完善的分析,解釋了兒童如何學習對象的單詞標籤,並將該分析應用於DNN。使用由原始認知心理學實驗啟發的刺激數據集,我們發現在ImageNet上訓練的最先進的一次學習模型顯示出與人類觀察到的相似的偏好:他們更喜歡根據形狀而不是顏色對對象進行分類。
  • 基於深度神經網絡構建風電機組性能模型的超參數選擇
    風電機組性能評估依賴於建立風電機組性能模型,即建立風電機組輸出功率與風電機組各關鍵參數( 如風速、槳距角、偏航角等) 之間的函數關係,這屬於典型的非線性回歸問題;在機器學習領域,深度神經網絡是解決該問題的經典手段,因此,利用其構建風電機組性能模型自然得到了行業內研究者的廣泛嘗試。
  • 神經網絡的基礎是MP模型?南大周志華組提出新型神經元模型FT
    據論文介紹,這項研究為神經網絡提供了一種新的基本構造單元,展示了開發具有神經元可塑性的人工神經網絡的可行性。當前的神經網絡大多基於 MP 模型,即按照生物神經元的結構和工作原理構造出來的抽象和簡化模型。此類模型通常將神經元形式化為一個「激活函數複合上輸入信號加權和」的形式。
  • 基於深度神經網絡的脫硫系統預測模型及應用
    本文還結合某 2×350MW 燃煤電廠提供的實際工數據,以石灰石供漿密度對系統脫硫性能的影響為例,詳細介紹了利用所建立的深度神經網絡模型測試溼法脫硫系統各參數指標對脫硫效果的影響,並結合化學機理和工業實際進行的診斷過程。
  • 硬剛無限寬神經網絡後,谷歌大腦有了12個新發現
    該研究得出了十二項實驗結論,包括(NTK:神經正切核、NNGP:神經網絡高斯過程): 1、NNGP/NTK的性能優於有限寬網絡。 無限寬網絡是一個新的活躍領域,基本的經驗問題仍然沒有答案。在這項工作中,作者對有限寬和無限寬的神經網絡進行了廣泛而深入的實證研究。該研究定量地探索了驅動有限寬網絡和核方法的性能變化的因素,揭示了令人驚喜的新發現,並開發了提高有限寬和無限寬網絡性能的最佳實踐。作者表示,該研究成果將為未來的寬網絡研究奠定基礎。
  • 【DeepMind重大突破】DNN具有人類行為,認知心理學破解黑箱
    來源:deepmind.com 等作者:DeepMind;Brian Mingus編譯:熊笑【新智元導讀】DeepMind 的最新論文稱自己「首次」將認知心理學方法引入了對深度神經網絡黑箱的理解研究中,並用認知心理學的方法發現了深度神經網絡存有和人類兒童在學習詞彙時也存在的「形狀偏好」的行為。
  • 清華大學圖神經網絡綜述:模型與應用
    圖神經網絡(GNN)是一類基於深度學習的處理圖域信息的方法。由於其較好的性能和可解釋性,GNN 最近已成為一種廣泛應用的圖分析方法。GNN 的第一個動機源於卷積神經網絡(CNN)。CNN 的廣泛應用帶來了機器學習領域的突破並開啟了深度學習的新時代。然而 CNN 只能在規則的 Euclidean 數據上運行,如圖像(2 維網格)和文本(1 維序列)。
  • 從經典結構到改進方法,神經網絡語言模型綜述
    神經網絡語言模型(NNLM)克服了維數的限制,提升了傳統語言模型的性能。本文對 NNLM 進行了綜述,首先描述了經典的 NNLM 的結構,然後介紹並分析了一些主要的改進方法。研究者總結並對比了 NNLM 的一些語料庫和工具包。此外,本文還討論了 NNLM 的一些研究方向。