圍棋打譜:AlphaGo的碰小目,用實戰來學習應對

2020-12-06 墨綠呵呵

自從AlphaGo面世後,個人在實戰中總能碰到神之一手。幸虧不是神之N多手,所以還可以下一下。

先來看一盤碰小目的對局。

出自《AlphaGo六十連勝對局解析》(江鑄久、芮乃偉著,人民郵電出版社)。

AlphaGo化身Master,混跡網絡,留下了精彩的60連勝對局。

這盤棋,潘亭宇初段執黑,Master執白,白中盤勝。

潘亭宇初段 VS Master(第18手)

布局,錯小目對二連星。白18,在小目的星位碰,是現在很多對局中出現頻率較高的一手棋。這手棋之後,白26得以小尖,黑棋只好在上邊做活。

白42脫先後,黑43尖出,分段白棋,尋求戰機。黑棋和白棋各自往中腹跑。

隨後白在左下角62尖開始,讓黑棋連角帶邊成空,自己在下邊及中腹圍成大模樣。

最後,以黑棋中腹死了一塊棋,對局結束。

整盤棋很有意思,黑棋上邊被白小尖封住後的做活,白棋下邊的大模樣,黑棋89手之後試圖在白的陣勢裡活出一塊棋,以及最後白棋如何破掉黑眼,都值得學一學。

在自己的實戰中,我遇到最多的就是碰小目這手棋。

實戰一

實戰一(第18手)

布局,中國流對二連星。

白18,碰小目。

黑棋有A或B兩個應對點。

實戰中為了照顧下邊黑棋,形成模樣,黑19選擇了A位。

實戰一:外扳變化(第19-22手)

黑19外扳,白20連扳。

黑21貫徹形成連片成模樣的構思,從四線打吃白棋。白22粘住。

此時,黑23粘住下邊三線上的斷點比較有利。此後,白A小飛,黑B位飛壓;或者白C貼著黑棋爬,黑D長,將上下黑棋連成片,外勢蔚為壯觀。

實戰黑23選擇粘上邊的斷點,則形成如下圖局面。

實戰一(第23-26手)

黑看似外勢連成一片,其實問題很多。

黑還須A位打一手,防止白B虎。白B後,下邊的黑棋似乎浮了起來,打入後問題很大。

此外,黑A打後,白還可以脫先他投,此處白棋做活並不難。

所以,黑23應選擇下邊粘住,一來比較實在,二來下邊的結構要結實一些。

實戰二

應對小目碰,並不是都是外扳。

實戰二(第20手)

如圖,另一盤實戰。此時,中國流外邊的情況不一樣了。

左下角白得角空,且邊上白三角一子使下邊對黑成空的價值變低。

此時,白20,碰小目。

同樣是A和B,兩個選項,選誰?

實戰選A,外扳。

實戰二(第21-28手)

黑21外扳,白22連扳。黑23打吃,白24粘住,黑25粘住下邊斷點,白26長,黑27隻好長,白28脫先,投在左邊。

此時觀察右下角的黑棋,就算拆邊也有些尷尬了。

再看一看黑21內扳的情況。

黑21內扳,白22連扳,黑23打吃,白24粘住,黑25粘住三三斷點,白26長,黑27順勢在四線上長,白28按理要補一手。

白26長,多半為了第28手棋可以左右兼顧。

即便如此,白棋下邊的陣勢,還是比較虛。

將來黑A飛之後,B、C的打入就比較明顯了。

回頭再看看Master的對局,如上圖,如果實戰黑棋選擇外扳,讓白棋得角,那麼,上邊黑棋明顯拆得太近,比較侷促,虧大了。實戰選擇角上,其實蠻好的。

小結:

AlphaGo的碰小目,有點左右逢源的意思,對手怎麼應對,自己都可以得到利益。如果實戰中遇到碰小目,外扳還是內扳,要看局面形勢再做判斷。出現碰小目,總得承認這是一手好棋。

不過,神之一手,只是一手,只要對手不是AI,贏棋的機會總是有的。

參考書籍:

《AlphaGo六十連勝對局解析》(江鑄久、芮乃偉著,人民郵電出版社)

關注@墨綠呵呵,分享有價值的圍棋知識,一起打譜,一起漲棋!

相關焦點

  • DeepMind 推出 AlphaGo 圍棋教學工具,圍棋學習新紀元來啦?
    @ 自動高速公路,「做成 app 就可以成為圍棋比賽作弊器了。」@ 於縛風,「圍棋輔導班的老師沒法講課了。」(圍棋老師表示哭暈在廁所)看完了大家的調侃,來看看專業棋手們怎麼說。世界圍棋冠軍、職業九段棋手常昊表示,教學工具不一定是標準答案,更多的是給予了我們無限的思考空間。
  • AlphaGo Zero用40天成為世界最強圍棋AI
    棋士柯潔:一個純淨、純粹自我學習的alphago是最強的...對於alphago的自我進步來講...人類太多餘了李喆:完全拋開人類圍棋知識,去年論文裡提到的許多特徵和rollout全部去掉,兩個神經網絡合為一個,只給定棋盤、棋子和規則。
  • AlphaGo 圍棋教學工具已發布
    在Deepmind所謂的「教學工具」發布之前,小編曾在腦海出現萬千猜想……但今天揭底才知道,原來只是一個平平淡淡的網頁……(建議複製到電腦上打開,因為據有的棋友反映手機打不開,小編這裡實測手機能打開,只是讀取了較長時間)https://alphagoteach.deepmind.com
  • 【話題】AlphaGo Zero!圍棋之神真來了……
    Alpha Go Zero之所以能當自己的老師,是用了一種叫強化學習的新模式。系統從一個對圍棋一無所知的神經網絡開始,將該神經網絡和一個強力搜索算法結合,自我對弈。柯潔發微博:「一個純淨、純粹自我學習的alphago是最強的……對於Alphago的自我進步來講,人類太多餘了。」Alpha Go通過數百萬次自我對弈,從零開始掌握圍棋,在短短幾天內積累人類幾千年才有的知識。
  • 和新手聊聊圍棋(上篇)
    喜歡我們的話,可以轉發一下文章哦~圍棋圍棋,一個源自東方的古老遊戲。它神秘而又優雅,規則簡潔卻變化多端。幾千年來,不僅吸引了眾多文人雅士,也讓無數智者為之痴迷。即使在多元化的新時代,這位古典的棋類依然散反著閃耀的光芒。大街上,小巷裡,隨處可見圍棋培訓學校。孩子們在棋盤前端坐,小腦袋瓜裡不斷閃耀著智慧的火花。
  • 柯潔終結41連勝圍棋AI:稱其實力遠超初代AlphaGo
    人類AI圍棋之爭,還在繼續。今年5月底,人機圍棋大戰終極對決,最終世界排名第一的柯潔九段和AlphaGo的圍棋終極人機大戰以0:3完敗。賽後,柯潔在接受採訪時直言,AlphaGo太完美,看不到任何勝利的希望。
  • AlphaGo是如何戰勝圍棋高手的?深度學習告訴你
    圍棋的程序設計: 圍棋是一個完美的、有趣的數學問題。 圍棋棋盤是19x19路,所以一共是361個交叉點,每個交叉點有三種狀態,可以用1表示黑子,-1表示白字,0表示無子,考慮到每個位置還可能有落子的時間、這個位置的氣等其他信息,可以用一個361 * n維的向量來表示一個棋盤的狀態。則把一個棋盤狀態向量記為s。
  • 棋盤上的湧現:圍棋、AlphaGo與遊戲|張江
    老子云,「有之以為利,無之以為用」。我們用杯子的空盛水,用門洞的空通行。正是由於這種有無、陰陽的變換使得圍棋的複雜性遠遠超過了其他棋類。其次,圍棋需要有大局觀,也就是從比較大的空間尺度思考棋子的布局。初學者下棋往往喜歡將棋子緊密地排布,而不會跳躍著擺棋——這是因為它們尚不會從更大的空間尺度思考問題。所以,第一步突破就是要擺脫局部的思維,看到整體的模式和運動規律。
  • 圍棋實戰:一招不慎,差點就滿盤皆輸,不要太得意啊
    下一局圍棋一般要下200多手棋,時間可以是十幾分鐘,也可以是幾個小時,在這個過程中時時刻刻提高警惕,也許一個錯誤就會導致輸掉好局,正所謂「一招不慎,滿盤皆輸」,這樣的例子相信很多棋友都經歷過。下面就用一盤實戰對局來談談體會。
  • 新版Alphago棋風更穩健
    新版Alphago採用了增強學習的策略,下棋技巧上遠勝初代依靠監督學習戰勝李世石的初代Alphago,它曾化名Master拿下所有高手,加之谷歌在人工智慧底層架構TensorFlow的提升,讓Alphago速度更快。柯潔身為現圍棋世界冠軍,此次也是有備而來,並宣稱用所有的熱情與Alphago進行了對決。
  • 柯潔vsAlphaGo圍棋比賽日期時間
    相信很多棋友對於這場經常對弈很期待,下文帶來阿爾法狗vs柯潔日期介紹,一起和小編來了解下吧!  柯潔 vs AlphaGo圍棋比賽日期時間介紹:  這場被認為是「人類頂尖棋手與人工智慧程序的終極對抗」,讓人們期待了足足一年有餘。而那個說著「AlphaGo贏不了我」的少年,終於站到了AI面前。
  • 解讀:AlphaGo 是如何被訓練成圍棋之神?
    我們把下一步的落子的行動也用361維的向量來表示,記為a。這樣,設計一個圍棋人工智慧的程序,就轉換成為了,任意給定一個s狀態,尋找最好的應對策略a,讓你的程序按照這個策略走,最後獲得棋盤上最大的地盤。如果你想要設計一個特別牛逼驚世駭俗的圍棋程序,你會從哪裡開始呢?
  • 能贏AlphaGo的只有它自己 柯潔回應新版問世:人類太多餘了
    谷歌人工智慧團隊DeepMind團隊在國際學術期刊《自然》(Nature)上發表論文,宣布新版AlphaGo——AlphaGo Zero可以在沒有人類指導的情況下學習,其水平超過此前所有AlphaGo(阿爾法狗)。
  • 柯潔回應新版本AlphaGo問世:人類太多餘了
    對此,柯潔回應稱:「一個純淨、純粹自我學習的alphago是最強的...對於alphago的自我進步來講...人類太多餘了。」論文介紹了首個戰勝人類圍棋冠軍的電腦程式AlphaGo的最新進化版本:AlphaGo Zero。AlphaGo Zero更為強大,可以一爭史上最強圍棋手。AlphaGo的前幾代版本,一開始用上千盤人類業餘和專業棋手的棋譜進行訓練,學習如何下圍棋。AlphaGo Zero則跳過了這個步驟,自我對弈學習下棋,完全從亂下開始。
  • 什麼是深度學習?竟能讓Alphago戰勝頂級的職業圍棋選手!
    通過多層處理,逐漸將初始的「低層」特徵表示轉化為「高層」特徵表示後,用「簡單模型」即可完成複雜的分類等學習任務。由此可將深度學習理解為進行「特徵學習」(feature learning)或「表示學習」(representation learning)。
  • 谷歌團隊發布AlphaGo Zero:柯潔稱人類太多餘了
    谷歌團隊發布AlphaGo Zero:柯潔稱人類太多餘了(圖片來自於推特)在這款軟體發出之後,柯潔也對這款軟體發表了自己的看法,他認為:「一個純淨、純粹自我學習的alphago是最強的...對於alphago的自我進步來講...人類太多餘了。」之所以柯潔會這樣說,主要是因為AlphaGo Zero的練習主要是通過自我對弈在三十天之內發展起來的。
  • 你以為人類只有圍棋下不過阿爾法狗嗎?DOTA也玩不過它!
    前段時間,阿爾法狗戰勝圍棋天才李世石的消息在網上迅速走紅,當即很多網友稱,在以後,人類再也不能在圍棋界稱霸了,但是幸運的是,阿爾法狗研發公司稱,以後阿爾法狗不會在和人類進行圍棋比賽。可是,你真的以為只有圍棋你們下不過人工智慧機器人嗎?現在就連DOTA你也玩不過它!
  • 阿爾法圍棋ALPHAGO 紀錄片
    要攻克圍棋需要人類的直覺,若能攻下圍棋,那就非同凡響了。圍棋是世界上最古老、最持久的棋盤遊戲。某種程度上講,它也是最簡單的,最為抽象的遊戲之一。他只有一種棋子,一種移動,只需要把棋子落到棋盤上,你的目標就是要用自己的棋子連結圈起一片空的領域。當你圍住對手的棋子後,你就能俘虜它們,把它們撤下棋盤。
  • 棋跡:少年AlphaGo Zero的圍棋成長之路
    此次創造出來的,是一個從零開始訓練的神經網絡,以及簡單用MCTS算法行棋的AlphaGo Zero。甩脫了繁重累贅的Zero,就著CNN+蒙特卡洛搜索樹,打敗了自己的「前輩」AlphaGo Master。舊版的AlphaGo,雖然神功小成,但斧鑿痕跡顯著。好似一隻機器人女友,雖有絕色容顏,卻長著機械手、聲音冷如谷歌娘。理想的圍棋人工智慧,應該是簡潔、優雅、渾然天成。
  • 棋壇至尊AlphaGo Zero,不止震驚了圍棋界
    隨著程序訓練的進行,它獨立發現了人類用幾千年才總結出來的圍棋規則,還建立了新的戰略,為這個古老的遊戲帶來新見解 AlphaGo的早期版本使用「策略網絡」來選擇下一個落子和「價值網絡」,從每個位置預測遊戲的獲勝者。這些組合在AlphaGo Zero中,使其能夠更有效地進行培訓和評估。3、AlphaGo Zero不用「Rollout」,其它圍棋軟體是用快速隨機的對弈從盤面來判斷(就是到處試下然後看哪個更好),而AlphaGo Zero是通過強大的神經網絡來精確判斷最強的下法。