記憶是人類智能的關鍵,我們因為記憶可以把過去和當下整合成為一體, 並且可以預測未來。記憶不僅是一個信息承載的工具, 更是世界模型的本體, 它無時無刻不在刻畫未來, 也被當下影響, 可以說, 沒有記憶,就沒有智能。
然而當下深度學習模型有關記憶的模型確是一大空缺, RNN模擬了神經網絡通過循環傳遞導致的信息緩存效應(類似人與人之間互相喊話來留存信息),而LSTM利用輸入門和遺忘門進一步加強了這個機制引入了更加可控的信息暫留機制。基於NTM的模型把過去的信息和常識存儲在類似硬碟的存儲器裡,網絡只需要學習讀和寫。而transformer類模型把這種根據當下的信息索引既往的信息的能力加強到極致,某種程度,它們繞開了基於問題,而是機械的把所有的信息一次並行的輸入到模型裡, 由於可以微分的強大注意力機制, 使得它們的能力被廣為使用。
我們說生物系統與之不同的是, 記憶不是為了存儲而是為了預測(The hippocampus as a predictive map - Kimberly L. Stachenfeld),這點尤其體現在模仿海馬體的模型裡。生物系統的靈活記憶機制納入到系統裡,就需要模擬大腦, 尤其是生物系統的海馬體。
一種經典的理論認為海馬體是感知信息進入生物長期記憶的門戶,信息在這裡被類似 「指針」一樣的東西索引起來, 這個指針既可以是基於時間(情景記憶)也可以是基於空間(空間關係記憶-place cells), 這兩種思想激發除了研究海馬體記憶的兩個流派, 一路強調空間,認知地圖和關聯記憶, 而另一路則強調時間,時間序列和情景記憶。
我們且看第一支空間認知地圖。
這種理論發揮的極大成者是:
The Tolman-Eichenbaum Machine: Unifying Space and Relational Memory through Generalization in the Hippocampal Formation
這篇文章把海馬在空間導航的作用直接推廣到了認知推理模型, 文章試圖將海馬體中的grid cell, place cell,memory cell 應用到非空間的任務中。這種思路事實上很早由Grid Cells的發現人之一 Edvar Moser 提出, 認為大腦對空間的表示不僅是導航任務的承載,而且還是更廣闊的思維推理的承載(cognitive space),這就好比我們經常用空間來隱喻各種事物,比如顏色空間, 味道空間。而Tolman-Eichenbaum Machine則把空間本身也拓展到了不同的幾何結構,如樹結構。
首先,文章抓住了空間導航問題的解法的關鍵, 那就是空間結構和視覺物體感知的解耦,因為無論人如何更換自己所在的地方, 你的空間導航能力實際上是不編的, 你在倫敦某購物中心的導航能力可以直接遷移到上海。 本質上空間是不變的, 變化的是地面的視覺物體和感知。這個解耦的背後,是把導航分解成X(感知信號), P(「地點「), M(記憶),G(空間結構)的符號體系。
X作為感覺信息的載體,是在不同小任務裡被替換的, G是在一些導航任務裡不變的結構體,它決定了每個action如何導致下一個狀態, 而M是對不同P的記憶, 當再次經過某個地點的時候, 這個吸引子會召回以往的經歷。這個解耦的結果是, agent可以通過一次在環境裡的地點遍歷,一個O(N)過程, 就輕鬆掌握了在任意兩個地點尋找」短路路徑的能力「
要知道這個能力 如果純靠統計學習, 需要一個對所有可能路徑的遍歷, N^2以上的數據量, 這種神奇的過程叫做結構學習或remapping, 它對應一種快速的類比能力。
實現這種功能最有趣的其實是 Place cell,它是一種抽象的概念符號, 它代表一個完整的可提取的「Scene」 (我們理解為若干感官組合成的符號圖)和更抽象的結構的一個掛載關係,可以被隨時學習和定義, 是深度學習所不具備的。
而節點和節點之間的抽象結構關係由「action」 介導, 我們管這類關係導致的狀態變化叫路徑積分, 它包含了迴環不變性等特殊的約束。事實上這種關係結構背後包含了對世界的因果結構一些基本的先驗。而且。我們可以想到這樣的結構不僅有空間,事實上這篇文章對不同的抽象結構, 如樹結構, 環行結構都做了實驗, 發現了可泛化的能力。我們會發現具備通用性的結構在世界上可行的。比如樹可以代表家族樹也可以代表學科結構, 樹上的關係(action),比如父親的父親是爺爺,可以用之四海。
最後值得一提的是Memory Cell , 我們都知道海馬是短期記憶形成的基礎 。這裡的Memory cell是利用Tensor Product Relation建立的hopfield 網絡,代表不同地點細胞間的連接權重。通過吸引子的動力學實現信息提取, 也就是一個迭代的微分方程,它就是associative memory的本體 。看似是記憶,這個M實則用於預測和生成 ,到達一個新的位置的時候,它都用來喚醒跟那個位置或地標相近的記憶。
這篇文章的缺點是它的實驗任務相對較為簡單, 訓練結構過於複雜也不標準,而事實上有一個和它非常神似的模型在深度學習的推理任務處於霸榜的位置, 這就是:
Self-Attentive Assocative Memory
這篇也是2020的新作, 並且在facebook Babi AI語言推理任務目前處理領先的位置, 同時它可以解決各類圖上的搜索優化任務, 和一些簡單的RL任務。它所使用的模型類似TEM,但是訓練流程更標準化。文章的名字顧名思義,也是基於關聯記憶, 而前面的self attentive 則更像是transformer系列的注意力 , 事實上這個作品也如同它們的混合。
首先, 它也用到了類似TEM的解耦思想, 把任務分解為objects和relation(類似於structure)兩部分,然後這兩部分均使用了associative memory的機制。但是它沒有使用難以訓練的吸引子, 而是直接使用帶有類似transformer的k,q, v形式的向量外積形式作為存儲的起點,使得模型更加易於訓練
這裡的q,k, v分別為
從形式上它很想自注意力, 唯一的區別是那個乘號, 這使得它的力量根源, 這就是向量外積, 事實上這意味著它不是僅僅的點乘, 而是乘之後的結果把前後兩個向量的每個bit之間的interaction都保留了下來。 這使得這個張量本身保留了兩個向量的所有信息, 方便之後輕鬆的提取出來,這個tensor就在一定程度上具備了關聯記憶的屬性 。
而這個作品厲害的地方在於它用關聯記憶不僅表達了感知object的局部和整體的關係, 也表達了object 和object之間的關聯, 這個關聯被一個稱為SAM的Tensor Product保存下來 代表了所有物體(節點)和物體(節點)之間的關聯。可以隨著時間演進而不停的演化(記憶的本質),使得它是一個被動態構建的關係圖, 比如如果輸入是一段文字,那麼隨著閱讀它會逐步豐富所有的人物關係圖。同時, 這裡的object記憶和relation記憶是互相矯正的, 類似於從object記憶提取的信息可以幫助構建relation記憶。
這個模型的Relation Memory 實則可以理解為動態更新的超圖,它的每一層圖代表不同 的relation(比如人物之間的私人關係和工作關係)。
這個網絡被用來做自然語言的,以及和圖有關的推理任務都取得良好成績,因為記憶和推理的關係是不言而喻的。當你某一天看見個女人帶著孩子, 轉天看到她和一個男人一起, 你會立刻推出男人是孩子的父親,就是一個例子。
而關於海馬體的另一系列工作圍繞振子,共振和時間序列。這看起來和第一個系列的工作像是另一個空間 。為什麼會有這個系列的工作是因為除了認知地圖外海馬的另一個重要功能是情景記憶, 而情景記憶的形成經常伴隨著脈衝神經元各種形式的震蕩, 比如著名的theta進動。
一篇文章,把這種振動和海馬體的單樣本學習記憶能力(看一次就把信息燒到記憶系統裡)聯繫起來。且看這篇文章
The Dance of the Interneurons: How Inhibition Facilitates Fast Compressible and Reversible Learning in Hippocampus
這裡說的是不同的抑制性神經元相互配合來實現這功能的,具體來說, 就是把海馬體看做一個時間系列的發生機器, 它自己內部可以發生大量的自發的振動(theta sequence), 這些內部存儲的「序列」 通過和外界輸入信息的時間序列相互掛載,從而把我們當下的信息很快和自身存在的某些pattern建立聯繫(好比同一個旋律掛上不同的音符或歌詞),從而不需要很大的功夫就可以把它記住,這或許也是為什麼我們覺得這個世界上大部分東西都似曾相識。
那麼這個序列模板是怎麼建立的呢?這就和剛剛說的的「振子」系統密不可分。海馬體內的脈衝神經元相當於頻率稍有不同的振子,但是這些振動通常很快,比如周期幾十毫秒, 這與我們日常生活的時間尺度相差甚遠。然而通過物理裡的幹涉現象,這些振動的疊加會產生一個極慢的時間尺度, 從而匹配我們日常生活的時間尺度。同時這個過程也產生一系列依次發放的細胞基團, 這些基團就是所謂的海馬「time cells" 。當一個外界的輸入信息流過, 這些基團也依次被激活, 這個激活軌跡就像雪地上的足印被學習記下來,並可以被讀出, 被稱為可以掛載當下的信息的記憶」印跡「細胞,這個掛載的過程,也是hebbian學習的過程。
雖然海馬體的這兩部分工作看起來是完全不相關的,但是它們背後其實反應了一種共同的認知本質, 它就是variable binding。第一系列的工作裡我們把任務裡的物體和結構進行了解耦從而構建出對應某個特殊任務的模型。而在第二個系列的任務裡,海馬體細胞的自發活動構成一個個和時間相關的佔位符,在真實的任務中,具體的感知信息通過填入這些佔位符而立刻獲得了一種模型結構,也可以被馬上關聯起來記住。
它們都體現了生物大腦是一系列先驗模型的總和,它們甚是先天具備的, 而在後天的經歷和探索過程中,這些模板被激活,成為對現實世界進行實例化的「超類「 , 把真實世界的零碎信息裹挾成可以做generation和inference的runtime model, 從而實現了認知的基礎- 這樣的思想究竟可否用於當下的人工智慧呢?
Variable Binding, 是智能可以泛化的一大核心秘密
鐵哥正在啟動這一系列的研究項目, 有興趣深入這方面研究,推動腦啟發AI發展的,請聯繫鐵哥(微信TieXu0609), 各種靈活的合作方式存在。
更多閱讀