麻薩諸塞大學阿默斯特分校和貝勒醫學院的人工智慧(AI)專家報告說,他們已經從已知的人腦記憶機制中汲取了靈感,從而成功解決了所謂的「增加AI功能的長期存在的主要障礙」作為「重播」。
貝勒的第一作者和博士後研究員吉多·范德文和首席研究員安德裡亞斯·託裡亞斯與麻薩諸塞大學阿默斯特分校的哈瓦·西格曼一起在《自然通訊》上寫道,他們已經開發出一種新的方法來保護「令人驚訝地有效」的深度神經網絡免受「災難性遺忘」的影響。 ;「 在學習新課程後,網絡會忘記他們以前學過的東西。
西格曼及其同事指出,深度神經網絡是最近AI發展的主要推動力,但這種遺忘阻礙了進步。
他們寫道:「一種解決方案是存儲先前遇到的示例,並在學習新知識時重新訪問它們。儘管這種「重播」或「排練」解決了災難性的遺忘,」他們補充說,「對所有先前學習的任務進行持續的重新培訓是非常低效率的,必須存儲的數據量很快變得難以管理。」
與AI神經網絡不同,人類可以在早期課程的基礎上不斷累積信息。他們解釋說,被認為可以保護記憶免受遺忘的大腦重要機制是重放代表這些記憶的神經元活動模式。
西格爾曼說,該團隊的主要見解在於「認識到大腦中的重放不會存儲數據」。相反,「大腦可以在更高,更抽象的層次上生成記憶的表示,而無需生成詳細的記憶。」 受此啟發,她和同事們創造了類似於大腦的人工回放,其中沒有存儲任何數據。相反,就像大腦一樣,網絡會生成以前所見事物的高級表示。
事實證明,「抽象的生成性大腦重放」非常有效,並且該團隊表明重放僅幾個生成的表示足以記住舊記憶,同時學習新記憶。生成性重放不僅可以防止災難性的遺忘,而且還為系統學習提供了一種新的,更簡化的路徑,它還使系統可以將學習從一種情況推廣到另一種情況。
例如,「如果我們具有生成性重放功能的網絡首先學會將貓與狗分開,然後將熊與狐狸分開,那麼它也會在沒有經過專門培訓的情況下告訴貓與狐狸。而且,值得注意的是,系統學到的越多,學習新任務越好。」範德文說。
他和同事寫道:「我們提出了一種全新的,受大腦啟發的重放方式,其中重放由網絡自身的上下文調製反饋連接生成的內部或隱藏表示。我們的方法實現了最先進的性能在不存儲數據的情況下挑戰不斷學習基準的挑戰,它為大腦中的抽象水平重放提供了一種新穎的模型。」
範德文說:「我們的方法對重播可能有助於大腦記憶鞏固的方式做出了一些有趣的預測。我們已經在進行實驗,以測試其中的一些預測。」