杏仁產品經理,業餘美劇、設計、哲學愛好者。頭像是我偶像。
1980 年,美國哲學家 John Searle 提出了一個思維實驗:中文房間(Chinese Room Argument),它是這樣的:
假想在一個密閉的房間中,有一個完全不懂任何中文的美國人。他手上有這兩樣東西:1)所有的中文字符集(數據);2)如何處理這些中文字符的規則書(程序)。現在,門外有人在紙條上用中文寫上一個問題,遞進房間當中(輸入)。房間裡這個完全不懂中文的美國人,按照手頭的規則書,把問題的正確回答拼湊出來後遞出去(輸出)。按照圖靈測試的標準,房間裡的人被認為具有理解中文的智能,然而,實際上他對中文一無所知。
要注意的是,這本規則書上僅僅只是基於語法(Syntax)的,而不涉及任何語義(Semantics)。也就是說,你可以理解成,這本規則書上,羅列了一切可能的中文問題,並給出了相應的中文回答,房間中的人,只需要按照對應的回答,拼湊出相應的中文字符遞出去,但這個過程中,他對問題和答案是什麼意思,一無所知。
這個思維實驗提出後,長達三十餘年的時間裡,各方都提供了各種回復與反駁。Searle 最初只是希望藉助於這個思維實驗,來指出圖靈測試在驗證智能方面並不是完備的,即我們該如何辨別智能。不過,隨著論戰的升級,它實際上指向著一個歷史更悠久的路線之爭:智能是可計算的嗎?
其實,所謂路線之爭,本來就沒有絕對的對錯,關鍵在於你持有什麼立場和信念。我們就來看看,中文房間面臨的各種詰難和相應的回覆。
最常見的回覆,也是 Searle 在其論文中首先駁斥的,就是系統論。在這種觀點下,房間中的那個人的確不理解中文,然而,如果你把房間當作一個整體系統,則可以說這個系統是理解中文的。這一派觀點的人做出了一個類比:想像一下人類大腦中的神經元,單獨拎出來一個神經元,它顯然不理解中文,然而,人作為一個整體,是可以理解語言的。
Searle 對此的回覆是:讓我們更極端一點,現在房間中的這個美國人,背下來了所有的中文字符和整本規則書。現在,他離開房間出門和真正的中國人交談。對面走來了一個人問他「你給王菊投票了嗎?」,他根據大腦裡內化的規則書回答「沒有」。儘管他對「王菊」和「投票」是什麼,一無所知。Searle 在 1984 年進一步指出,系統論一方的錯誤在於,誤把這個問題當作整體論和還原論之爭的一個分支,然而實際上,他駁斥的是單憑語法本身並不足以構建語義。
系統論的一個變體是「虛擬心智論(Virtual Mind Reply)」。和系統論一樣,它同樣不認為房間中的人具有智能,但也不認為這個系統整體具有智能。事實上,它完全不關心智能是通過誰或什麼(Agent)展現了出來,而只在意在整個過程當中,是否有智能被創造了出來。許多人在這一觀點上進行了進一步的演化,繼而討論到:中文房間之中,真正的智能體現在那本規則書上。正反雙方對這本規則書是否是可窮盡的,以及意識和本體論的行為主義之間的關係展開了辯駁,不過討論的內容過於學究,這裡就不展開了。
英國物理學家和數學家 Roger Penrose 在 2002 年回應過這一系列相關的觀點,把「中文房間」問題擴大化到「中文體育館(Chinese Gym)」變體。現在,讓全中國所有的人,每個人模擬一個大腦中的神經元來處理信息。難道中國這個國家,或者在這個過程當中,存在著任何形式的智能嗎?好吧,雖然這個變體的思維實驗,核心目的是駁斥智能不需要依附主體的這一看法,但如果你想到了《三體》一書中,三體星人全民模擬一臺計算機的行徑,很多人的確可能會覺得這個過程當中存在著智能。
機器人回復贊同 Searl 的觀點,即中文房間中無論是那個人,還是房間整體,都不存在智能可言。但原因在於,僅僅語言是不足以構成智能的,按照這一方的觀點,如果我們造出了一個機器人,它不僅僅可以根據語法處理中文,還可以識別圖像、聲音、運動,並給出相應的肢體、表情等反饋,這個機器人就具備了智能。按這樣的標準,西部世界中的接待者(Hosts)顯然是具備智能的。
Searl 和一眾人並不認為這樣的機器人真正具備了智能,反駁的主要切入點,是從意向性(Intentionality)和因果關係(Causal Connection)兩點入手的。通俗一點來說,這樣的智能只是一系列反應的組合,矽谷最新一季當中的 Fiona 就是典型代表,她的語言、面部表情、肢體動作只不過是按照程序例行公事,卻沒有自發的因果性。
模擬大腦回復(Brain Simulator Reply)模擬大腦回復跳開了中文房間這個問題,而是直接向 Searl 質問:如果我們用非生物的方式,模擬出了一個和大腦神經元一模一樣工作的裝置,它擁有智能嗎?想像一下西部世界中接待員腦中的白色裝置,就可以認為是這個,顯然西部世界裡的機器人,比上面矽谷中的那個 Fiona 更像擁有智能的人類。
Searl 的回覆依然是不能。模擬大腦本身並不意味著智能,他在這裡給出了一個很類似於上文「中文體育館(Chinese Gym)」的思維實驗變體,目前來看,Searl 就是既不認同智能直接等同於大腦的電化學信號。不過,在這個方向上討論下去,Searl 隱晦地表達出了他對於什麼是智能的深層看法。
模擬大腦回復一方進一步質問:我們現在不模擬大腦了,而是逐步替換大腦。假設有一個人,我們把他大腦中的突觸,一個接一個,替換成特製的電晶體,這些電晶體能十分逼真地模擬大腦突觸。那麼,當全部替換完成後,這個人還擁有智能嗎?
Searl 一方的回答是:在我不知道他被替換前,我可能會認為他擁有智能。但一旦當我知道它是一臺圖靈機後,我便不再認為他具備智能。這個看似已經近乎於狡辯的回覆,其實暗藏著 Searl 一方對智能更深層的看法:凡是可以被計算的,都不再是智能。其實,直到今天,也沒有人可以給智能下一個令所有人滿意的定義,而中文房間更深層次的分歧正在於:智能是一個可計算的問題嗎?
他人心智回復(Other Minds Reply)和直覺回復(Intuition Reply)還有許多人繞開了關於智能的定義,而嘗試從如何辨別智能的角度出發。在他們看來,我們之所以認為中文房間中的人,或機器人不具備智能,純粹是出於我們固有的偏見。按照同樣的標準,我們一樣也無法判定身邊的人是否真的具備智能,或者僅僅只是表現出智能。這一系列的回覆,都強調圖靈測試的重要性,正在於摒棄我們固有的偏見,而單純從結果出發來辨別智能是否存在。
美國哲學家 Daniel Dennett 提出了哲學殭屍(Philosophical Zombie),也可以作為一個補充回應。用一個非常簡化但並不準確的版本來說,這裡的殭屍不是美劇 Walking Dead 中的殭屍,而是指那些只表現出智能,卻並不真的具備智能的人類,假設他們存在的話。Daniel Dennett 認為,首先智能顯然是一個進化出來的產物。其次,中文房間提出的觀點如果成立,即表現出智能的主體並不一定真正具備智能。那麼,兩個同樣在行為上表現出智能的主體,前者不具備真正的智能(只是裝得像),而後者具備真正的智能,通過他的一系列的論證(這裡就簡化不展開,不考慮他論證的正確性),最後得到的結論是:前者比後者更有生存優勢,故而地球上大多數人,其實都是只表現出智能,卻不真正具備智能的殭屍。
能看到這,說明你肯定不是一具殭屍了。
全文完
以下文章您可能也會感興趣:
長按左側二維碼關注我們,這裡有一群熱血青年期待著與您相會。