DeepMind全能AI:完全自學規則,攻破多款遊戲,表現碾壓人類!

2021-01-10 新浪科技

來源:環球科學

DeepMind用同一個算法,攻克了西洋棋、將棋、圍棋和雅達利遊戲。動圖來源:DeepMind

開發出人工通用智能,一直是人工智慧研究的一大目標。此前的許多算法雖能精通諸如圍棋、象棋等遊戲,卻無法「觸類旁通」,每遇到新的遊戲都需要更改框架,重新學習,更不用說將棋類遊戲的方法搬到電腦遊戲上了。

然而就在昨天,曾開發AlphaGo的DeepMind公司在《自然》上發文,正式宣布了MuZero:這個新的算法不僅精通圍棋、西洋棋和將棋,還能在30多款雅達利(Atari)遊戲上全面超越過去的人工智慧算法和人類。MuZero的正式發布,為人工智慧領域揭開了新的篇章。

撰文 | 羅丁豪

故事從2014年開始,基於倫敦的DeepMind公司懷著一腔雄心壯志,著手建造一個巨大項目:他們想要將正在生根發芽的人工智慧(artificial intelligence,簡稱AI)技術大面積地應用到人類生活場景中,讓機器與人真正地互動並融合。

他們決定從西洋棋入手:這是一個需要長期計劃能力的人類遊戲,對初出茅廬的AI技術來說是一項嚴峻的挑戰。即使在1997年IBM的「深藍」(Deep Blue)擊敗當時的西洋棋冠軍卡斯帕羅夫之後,棋類AI的發展仍步履維艱。以圍棋(Go,即日語「碁」字之轉寫)為例:2013年,AI在不讓子的情況下幾乎無法擊敗人類職業選手。

2016年,AlphaGo橫空出世,以4:1擊敗韓國選手李世石,並在2017年的烏鎮圍棋峰會上擊敗了世界第一棋手柯潔。中國圍棋協會當即授予AlphaGo職業圍棋九段的稱號。

如果說AlphaGo的成功確立了AI的「圍棋霸權」,隨後的AlphaGo Zero和AlphaZero則進一步揭示了「棋類霸權」的可能性。作為AI算法,不論是AlphaGo還是其繼位者,都需要大量的訓練。AlphaGo依賴於專家棋法(expert moves)數據集,而AlphaGo Zero捨去了這一步,直接與自己對戰以為訓練提供數據。AlphaZero則除了圍棋,更學會了日本象棋(將棋)和西洋棋。值得一提的是,2018年底發布的AlphaZero,從第一次見到棋盤,到成為世界級棋類大師,只用了24小時。

DeepMind公司在過去幾年中陸續開發了AlphaGo、AlphaGo Zero、AlphaZero和MuZero。圖片來源:DeepMind,翻譯製圖:羅丁豪

然後,MuZero來了。一篇昨晚正式發表於《自然》的論文,揭示了一個更加通用、強力的算法:MuZero不僅能下圍棋、將棋和西洋棋,還在30多款雅達利遊戲中展示出了超人類表現(superhuman performance)。

最重要的是,沒人教過MuZero這些遊戲的規則。

無師自通

自古以來,哲學家和科學家都幻想著有朝一日能造出「人工通用智能」(artificial general intelligence)。簡單地說,人工通用智能需要有極高的可塑性(flexibility),從而適應(甚至精通)各式不同的任務:一個能下棋、玩遊戲、做家務、開飛機的AI。然而在此之前,最好的AI算法也只能精通數個同類任務;會下圍棋、將棋和西洋棋的AlphaZero就是一個例子。

這種限制,在很大程度上來自AI算法對規則的依賴性。要想讓AlphaZero下好各種棋,人類需要明確地教它各種棋的規則。以西洋棋為例,AlphaZero知道象只能斜著走,還不能跨過障礙物,而馬可以跨過障礙物,但需要走「日」字。AlphaZero也知道什麼是輸贏和平局。可是一旦更換棋種,人類就需要將新棋種的規則從頭教給AlphaZero。

AlphaZero(簡稱AZ)對戰各個此前最強的棋類AI。圖片來源:DeepMind,翻譯製圖:羅丁豪

既然這種依賴性限制了目前AI算法的應用範圍,那最簡單的解決方案,就是去除這種依賴性:人類可以不教AI下棋,只給它一個棋盤。每當AI選擇了下一步該如何走時,人類才告訴它這一步合不合法,並且是否導致了輸贏或平局。

——這就是MuZero面臨的情境。對於任何一個遊戲或任務,MuZero所掌握的只有一套「思考方式」,並沒有該任務的「行為準則」。它不知道西洋棋裡的馬該怎麼走,也不知道將棋中如何達成「王手」。如同第一次見到電腦的小孩,MuZero具有作出推理論斷的「思維工具」,但不知道如何才能贏得「掃雷」。

跟人類一樣,MuZero的秘訣,在於摸著石頭過河,為外部世界建立一個只屬於自己的「模型」(internal model)。在這個內部模型中,MuZero捨棄了一切表面上的規則,只留下對決策有用的信息:價值(value,即當前決策「有多好」)、策略(policy,即最好的「下一步」是什麼)和獎勵(reward,即上一步「有多好」)。

MuZero能為外部世界建立模型,從而指導自己在不同任務中的策略。圖片來源:Connor Shorten,翻譯製圖:羅丁豪

要明白這種策略的特殊和有效性,我們可以拿MuZero和AlphaZero的神經網絡作對比:

任何深度學習算法在面對棋盤時,第一步總是觀察。AlphaZero能觀察當前棋局(),並直接利用計劃未來的棋步。這要多虧了它所知道的棋類規則:它明白做出一個動作(action)後的下一個棋局長什麼樣,並可以在下一個棋局的基礎上繼續規劃棋路,「想像」並評估各種不同的可能性。這樣的規劃方式,在深度學習上稱為「蒙特卡洛樹搜索」(Monte Carlo tree search,MCTS)。MCTS允許算法探索不同的可能性,並從中擇出最優的動作。因此,熟知規則的AlphaZero要想精通棋類,只需要一個「神經網絡」(neural network),即「預測網絡」(prediction network),給輸入一個狀態,它就能給出這個狀態的價值()和潛在策略();通過評估各個可能性,AlphaZero就能得知當前最好的棋步。

MuZero則沒有這種「奢華待遇」:它需要摸索出棋盤上各個子的合法(legal)走法,還需要弄清輸贏的概念;當然,它的目標與AlphaZero一樣,贏就好了,越多越好。但在不清楚規則的情況下,MuZero需要另闢蹊徑,利用「表徵網絡」(representation network),將觀察到的棋盤狀態轉換成只屬於自己的隱藏狀態(hidden state)。我們將當前的棋盤狀態稱為「O」(observation,即觀察),MuZero的當前隱藏狀態稱為。但這時,MuZero遇到了第二個大難題:如何像AlphaZero一樣評估未來的各種可能性呢?

不像AlphaZero,不知道棋盤規則的MuZero不能預測棋盤的各種可能狀態,因此,MuZero需要從零開始,創造自己對棋路的內部模型。幸運的是,有了隱藏狀態之後,MuZero就能算出狀態下可以做出的各種行動(經過學習,MuZero得出的可能行動會越來越符合規則),並能通過「動態網絡」(dynamic network),利用MuZero選擇的行動和當前潛在狀態,推演出。在每一個真實世界的時間點內,MuZero都能利用自己的內部模型和MCTS選擇出這一個時間點的最佳行為,並將其應用於真實世界中。在實際做出了一個最佳行為後,這個行為又能再「回收」,用於訓練動態網絡(從而改進MuZero的內部模型)。

AlphaZero和MuZero MCTS方法的並列對比。熟知規則的AlphaZero能由一個真實狀態和可能行為,推測下一個真實狀態。而MuZero由於不知道遊戲規則,只能將真實狀態表徵為隱藏狀態,學會建立自己的內在模型。製圖:羅丁豪

也就是說,由於AlphaZero對規則的掌握,它只需要一個預測網絡就能精通棋類。而不能預先知曉規則的MuZero,則需要利用動態網絡和表徵網絡,自己學習並建立一個內在模型,從而學會下棋。在建立內在模型的過程中,人類不會給MuZero設置任何限制:MuZero可以捨棄任何信息,只保留有用的元素(即價值、策略和獎勵)。

相比於只需要1個神經網絡的AlphaZero,MuZero需要3個神經網絡來建立內部模型,從而指導精確規劃。製圖:羅丁豪

與人類一樣,MuZero可以在它的「腦海」中創造任何規則和動態。它的目標是做出最精確、最有效的未來規劃。捨棄了「循規蹈矩」的MuZero反而因此獲得了極強的可塑性,在截然不同的棋類和電腦遊戲中都「得心應手」。

「超人」表現?

就這樣,MuZero這樣一個「無師自通」的算法,竟然在AlphaZero引以為傲的棋類遊戲中輕鬆與後者打成了平手。

在西洋棋、將棋和圍棋中,MuZero的表現(藍線)達到甚至超過了AlphaZero(橙線)。而在雅達利遊戲「吃豆人小姐」中,MuZero的表現(藍線)遠超此前表現最佳的R2D2算法得分(橙線)。圖片來源:Schrittwieser et al。, Nature,翻譯製圖:羅丁豪

在西洋棋、將棋和圍棋中,MuZero都能達到AlphaZero的水平,甚至在圍棋中稍稍勝過了AlphaZero。這表明MuZero「自學成才」建立的內部模型,或許比AlphaZero的「循規蹈矩」更接近圍棋的要義。在雅達利遊戲中,MuZero的表現也非同尋常。以「吃豆人小姐」(Ms。 Pac-Man)為例,MuZero的得分為243401。10,相比之下,人類的最高分只有6951.60,是MuZero的1/35。在57個測試用的雅達利遊戲中,MuZero在37個中取得了歷史最高分,而人類則僅在5個遊戲中保持著最佳成績。

但是,在利用AlphaZero和其他算法攻破了這些遊戲後,反而對MuZero隱藏起規則,讓它「閉上眼」下棋、「背著手」玩遊戲的目的是什麼呢?

正如本文開頭所說,DeepMind和整個AI領域一樣,並不在乎西洋棋和雅達利遊戲本身。這是一場事關智能的徵途,目標是理解智能本身。牙牙學語的嬰兒並不明白動名詞的區別,卻能在短短幾個月內連詞成句,甚至創造出只屬於他們的句子。生物學家也並非生來就知曉細胞的各種秘密,而是在實驗和失敗中,一步步對生物世界建立了理論和模型,從而獲得深刻洞見。

事實很殘酷:循規蹈矩不是智能。事先熟知規則再精通下棋,與先摸索規則、建立內部模型再精通棋路是全然不同的。前者只能困於「棋」中,後者則能將一套「思考方式」搬到各種任務上。前者的例子包括AlphaGo到AlphaZero的各種棋類AI,後者則包括MuZero和于爾根·施密德胡波(Jürgen Schmidhuber)著名的「循環世界模型」(Recurrent World Model)。

為外界建立內部表徵是人類最引以為傲的能力之一。如今在AI身上,這個能力再次證明了自己的價值。MuZero不僅讓人類看到了創造人工通用智能的可能性,還為我們打開了一扇通往智能本身的大門:

智能究竟是什麼?我們離答案似乎越來越近。

相關焦點

  • DM最新全能AI:完全自學規則,表現碾壓人類!
    然而就在昨天,曾開發AlphaGo的DeepMind公司在《自然》上發文,正式宣布了MuZero:這個新的算法不僅精通圍棋、西洋棋和將棋,還能在30多款雅達利(Atari)遊戲上全面超越過去的人工智慧算法和人類。MuZero的正式發布,為人工智慧領域揭開了新的篇章。
  • 人類知識多餘?Deepmind新一代AlphaGo Zero自學3天打敗AlphaGo
    今天凌晨,谷歌旗下Deepmind人工智慧團隊發布了一篇轟動AI界的論文,《Mastering the game of Go without human knowledge》(在沒有人類知識的情況下掌握圍棋),一句話總結這篇論文,他們研發的AlphaGo大表哥AlphaGo Zero能夠在沒有人類圍棋對弈數據的情況下
  • 碾壓99.8%人類對手,三種族都達宗師級!星際AI登上Nature
    ,表現就會不穩定了。 而針對星際爭霸這樣的即時戰略(RTS)遊戲的研究,就是解決這個大問題過程中的一個小目標。 也就是說,星際爭霸的挑戰,實際上就是一種多智能體強化學習算法的挑戰。
  • 各類遊戲測試碾壓前輩,谷歌DeepMind AI再添新員
    一、「自學成才」的MuZero谷歌DeepMind在去年年底發表在《科學》雜誌上的一篇論文中,詳細介紹了AlphaZero,這是一種人工智慧系統,可以通過自學掌握西洋棋、日本「將棋(shogi)」以及中國的棋盤類遊戲「圍棋」的玩法。
  • 星際爭霸2人類1:10輸給AI!DeepMind 「AlphaStar」進化神速
    「這種情況在同水平人類對局中完全不會出現,」MaNa 在演講中無奈地說道。最終 MaNa 也以 0-5 的成績敗北,人類與 AlphaStar 的 10 局比賽結果全是失敗。當時,DeepMind 研究科學家 Oriol Vinyals 在暴雪嘉年華現場透露 Deepmind 與星際爭霸 2 緊密合作的最新進展及未來的計劃。在 AlphaGo 在 2017 年圍棋大獲全勝之後,DeepMind 開始對外宣布,團隊正在著手讓人工智慧徵服星際爭霸 2,這款遊戲對人工智慧在處理複雜任務上的成功提出了"重大挑戰"。
  • 從AlphaGo到蛋白質摺疊,Deepmind在不斷捅破AI領域的天花板!
    Deepmind最初由三名科學家聯合創辦,就像其創始人兼CEO哈薩比斯(Demis Hassabis)所說的,它的性質更像一個科技研究院而不是創業公司,因為公司一開始並沒有任何產品,而是一直在通過遊戲來研究人工智慧算法。在被谷歌收購前,Deepmind通過人工智慧的無監督學習算法打爆了57個atari遊戲,即八九十年代國內也很流行的小霸王卡帶遊戲。
  • Google DeepMind 團隊發布新算法,下一個被 AI 虐哭的是誰?
    平心而論,再早之前 「深藍」就已經深深傷過棋手們的心,各類智力比賽和遊戲當中,圍棋可以說是難度非常高的了,本以為圍棋 324 格棋盤生出千萬般變化能夠守住人類的陣地,結果 AlphaGo 虐哭柯潔, Alpha Zero 還說 「我能自己學」,MuZero 說 「我能自己學,還不需要規則」,就像 AI 世界裡的葉問,一個馬步攤手,豪氣發問:「我要打十個,還有誰?」
  • DeepMind秀出最強遊戲AI!57場Atari遊戲超過人類,復盤遊戲AI進化史
    該代理在街機學習環境中表現良好,在57款雅達利遊戲中的表現超過人類平均水平。一般來說,研究人員會把人類玩家的平均遊戲得分(human normalized scores)作為基準,以此標定代理的深度強化學習能力。例如,如果代理在遊戲中表現隨機,其得分就為0%;反之,如果代理在遊戲中的表現與人類玩家相當或優於人類玩家,得分就為100%。隨著參與的遊戲越來越多,代理會不斷進行深度強化學習,最終得到高分。
  • DeepMind推出蛋白質結構預測算法,大勝人類傳統模型!
    在過去的幾年裡,DeepMind公司開發的人工智慧AlphaGo已經在西洋棋和圍棋比賽中取得了超越人類的表現。而如今,DeepMind又向推動和加速新科學發現上邁出了重要的一步。前幾天,DeepMind宣布推出全新的AlphaFold系統,能夠預測並生成蛋白質的3D結構。
  • DeepMind公布官方教程,開始創建自己的AlphaZero AI吧
    2016年3月,Deepmind的AlphaGo以4比1的比分戰勝18屆圍棋世界冠軍李世石,這場比賽吸引到全球超過2億觀眾。機器學會圍棋策略,並擊敗人類頂尖高手,這在以往被視為一種不可能的壯舉——或者至少被認為要到十年後才有可能實現。
  • 谷歌DeepMind團隊圍棋AI新進展:AlphaGo升級版AlphaZero強勢來襲
    這個程序被稱為AlphaZero,它教會自己在短短三天內玩三種不同的棋盤遊戲(西洋棋、圍棋和日本版西洋棋),沒有人為幹預,這一描述成就的論文發表在《科學》雜誌上。DeepMind執行長兼聯合創始人Demis Hassabis說「從完全隨機的遊戲開始,AlphaZero逐漸學會了什麼是好的遊戲,並形成了自己對遊戲的評價。從這個意義上講,它不受人類對遊戲思考方式的限制。」
  • DeepMind宣布解決蛋白質摺疊問題,獲92.4準確性得分
    兩年前,上一版本的AlphaFold便已經取得了裡程碑的突破,但是,仍然沒有完全解決蛋白質摺疊問題。在這個推理過程,還會用到生物學中已知的信息進行完善,如:進化中的同源序列,多序列比對這個過程,只用了半小時證,實驗結果完全符合AlphaFold的預測結構。
  • 谷歌DeepMind 的可微分神經計算機 DNC 怎麼樣?看 Facebook AI...
    那麼我們究竟該如何看待谷歌 Deepmind 團隊最新發布的可微分神經計算機 DNC 呢?果然,已經有人在知乎上提出這個問題。編者註:該知乎提問中「谷歌deeplearning團隊」實際上應該指的是「谷歌Deepmind團隊」。
  • 深度學習之Google Deepmind的Alphago人工智慧算法技術演變歷程
    最近大家比較關心的圍棋人機大戰(Alphago vs 李世石)中,deep mind基於Nature2016文章的Alphago在5局制的比賽中已經取得了4-1的獲勝。這兩篇文章都是蒙特卡洛搜索樹+DCNN,效果Google的Alphago優於facebook的方法,剛好藉此機會將之前看到的deep mind該領域的文章捋了一下。
  • 最強AI棋手,不懂規則也能精通遊戲
    智東西(公眾號:zhidxcom)編譯 |子佩 編輯 |Panken智東西12月24日消息,繼AlphaGo揚名海外後,DeepMind再推新模型MuZero,該模型可以在不知道遊戲規則的情況下,自學圍棋、西洋棋、日本將棋和Atari遊戲並制定最佳獲勝策略,論文今日發表至《Nature》。
  • DeepMind以AlphaZero擊敗全球三大棋藝AI!
    AlphaZero與其它傳統AI棋藝引擎最大的不同在於它並非仰賴眾多的規則,或是自專家的棋戲中學習,而是通過深度神經網絡(Deep Neural Network)與通用目的演算法展開自我學習,頂多只知道各種棋藝的基本規則。
  • 通用版AlphaGo登《Nature》:最強AI棋手,不懂規則也能精通遊戲
    編譯 | 子佩編輯 | Panken智東西12月24日消息,繼AlphaGo揚名海外後,DeepMind再推新模型MuZero,該模型可以在不知道遊戲規則的情況下,自學圍棋、西洋棋、日本將棋和Atari遊戲並制定最佳獲勝策略,論文今日發表至《Nature》。
  • 生物學50年難題被DeepMind解決了,蛋白質版「阿法狗」預測結構準確...
    △圖源:Deepmind兩年前,上一版本的AlphaFold便已經取得了裡程碑的突破,但是,仍然沒有完全解決蛋白質摺疊問題。而這次AlphaFold 2,則更進一步。這一巨大的突破,直接引爆了全網,Nature、Science紛紛報導,生物屆和AI大牛們也紛紛祝賀。