機械姬的靈魂困境:從圖靈測試、中文瑪麗房間、哲學殭屍到他心通

2021-01-19 文工團

前陣子的電影《機械姬》引發了一些經典的討論,即人工智慧是否具有「智慧」,更進一步地試圖判定其是否具有「靈魂」。在涉及這些問題的同時,需要我們先來理清幾個思想實驗和哲學概念,更重要的是,重新思考一下我們與這個世界的關係。


文 | LostAbaddon 編輯 | Agnes



如果,有一個人,被關在一個房間裡,出不去。


看管她的人說,你要出去,也不是不可能,我會找來一個小夥子,你只要能騙得他來幫你,你就有機會出去。


接下來,會發生什麼呢?


這樣的劇情,如果放在普通概念的人世間,恐怕不會有太多的深度可以來挖掘,無非就是爾虞我詐玩弄感情利益交換等戲碼,但如果現在告訴你這個被關起來的其實是一個機器人,恐怕即便是戲碼完全相同,也會被玩出皆然不同的噱頭。

這便是前陣子議論最多的科幻電影《機械姬》。


然而本文並不打算在電影上多做停留,這部電影的劇情之所以會讓人關注,無非便是因為這裡的「女主角」是一個人工智慧罷了。我們今天要討論的,是影片引申出的另外的一些概念和問題。其中,最先拉開大幕的,便是最電影中最開始提到的那個酷炫的名詞——圖靈測試。


圖靈測試



圖靈測試,拜現代媒體與影視工業所賜,已經幾乎成為了一個家喻戶曉的名詞,尤其是最近卷福出演的《模仿遊戲》,更是讓「圖靈測試」成為了時髦用語。



阿蘭·圖靈(Alan Mathison Turing)


一般來說,圖靈測試被認為是判斷一套人機互動軟體是否足夠接近人的測試,其最早出現在阿蘭·圖靈於1950的跨時代論文《計算機械與智能》中。在這篇偉大的論文中,圖靈為了回答「機器是否可以思考(Can machine thing?)」這一問題,並發現「思考(Thinking)」一詞本身難以給出一個明確而不模糊的定義,從而選擇了一個可以準確定義並能恰當地接近「機器是否可以思考」這一問題的替代問題,也就是「模仿遊戲」:

It is played with three people, a man (A), awoman (B), and an interrogator (C) who may be of either sex. The interrogatorstays in a room apart front the other two. The object of the game for theinterrogator is to determine which of the other two is the man and which is thewoman.

......

The ideal arrangement is to have ateleprinter communicating between the two rooms.

......

We now ask the question, "What willhappen when a machine takes the part of A in this game?" Will theinterrogator decide wrongly as often when the game is played like this as hedoes when the game is played between a man and a woman? These questions replaceour original, "Can machines think?"

(假定我們有三個人:男人A,女人B,以及詢問者C(無論性別),詢問者C獨自呆在一個房間中。遊戲的目的,便是經過詢問者和A與B進行對話,判斷到底哪個是男人,哪個是女人。其中,詢問者與A和B的交流只能通過連結兩個房間(詢問者所在的房間與A、B所在的房間)的傳真機來完成。A會模仿女人來回答詢問者提出的問題,而B則要識途讓詢問者認定自己才是女人。)

現在,如果將A換成一臺機器,依然按照如上規則來進行這個模仿遊戲,詢問者判斷錯誤的概率是否可能和A是一名男人的時候一樣高?

這是一個非常有技巧性的提問方式,通過暗箱中反饋來的行為(無論是男人A,女人B,還是機器人A',對於詢問者C來說都是一個個暗箱)來判斷暗箱到底是什麼屬性。而且,這樣的代換可以巧妙地避開「思考」一詞的定義模糊性,完全由A-B測試的結果和A'-B測試的結果的統計性對比來判斷到底A和A'在行為表現方面是否足夠接近,從而判斷這臺被試機器是否足夠接近一名人類(在這個遊戲中,其實更應該說是「是否足夠接近一名人類男性」)。

當然,在圖靈那篇論文的後面,還給出了圖靈測試的更精簡版本,也是大眾更熟悉的版本:

It was suggested tentatively that the question, "Can machinesthink?" should be replaced by "Are there imaginable digital computerswhich would do well in the imitation game?" If we wish we can make thissuperficially more general and ask "Are there discrete-state machineswhich would do well?" But in view of the universality property we see thateither of these questions is equivalent to this, "Let us fix our attentionon one particular digital computer C. Is it true that by modifying thiscomputer to have an adequate storage, suitably increasing its speed of action,and providing it with an appropriate programme, C can be made to playsatisfactorily the part of A in the imitation game, the part of B being taken bya man?"

最後這裡圖靈所提出的「模仿遊戲」的內容其實就是:如果A是一臺恰當變成的電腦,而B是一個人類,那麼在這個模仿遊戲中詢問者是否可能無法對這兩者做出區分?

這便是我們現在最熟悉的「圖靈測試」。



那麼,有一個問題我們必須要搞清楚,那就是:圖靈測試所測試的究竟是什麼?

在大眾的概念裡,圖靈測試儼然成為了判斷一臺機器或者更應該說是一套「智能軟體」是否足夠智能的測試,但實際上到底是否如此呢?

讓我們來開一個腦洞:

假定我們已經有了時間機器,然後這臺機器在你作為詢問者提出問題之前就已經知道了你會問的所有的問題,然後自動遍歷所有合適的答案,通過「檢驗未來」的能力來分析出怎麼樣的一套答案可以通過你作為詢問者而成立的圖靈測試,那麼,請問,這樣的一臺時間機器是否具有人類所預期的智能?

答案,我想很顯然是否定的

當然,這個腦洞本質上並不說明問題,因為物理定律至少暫時在人類的理解範疇內是禁止類時閉曲線的存在的,所以使用一種不可能存在的幻想來否定另一個還不知道是否可能成立的實驗,本身並不靠譜。

那麼,讓我們來換一個問題:這臺電腦對於文字能表達的所有的問題,都可以做出恰如其分的回覆,但本身卻不具備任何文字之外的交互能力,比如說,給它配合上發音設備之後,你會發現它說的話本身沒有問題,可整句句子完全沒有語氣變化,那麼這樣的機器是否真的具有智能?

答案依然是否定的。

我們還可以來問一個相反的問題:假定我們現在已經遇到了外星人,或者從一個非洲部落裡找來一位年輕人,無論是外星人還是部落裡的年輕人,對於紐約大都會裡一名普通宅男所處的日常生活與常識完全沒概念,以至於在回答這些完全沒概念的問題時都很刻板,那麼這樣的一個外星人/人,一臺未來的高級版Siri和一個紐約客在一起丟給一個詢問者,詢問者恐怕會率先認為這位外星人/人沒有通過針對智能電腦的圖靈測試。

因此,難道說沒有通過測試就真的沒有智能了麼?

讓我們回到模仿遊戲的本意上來。

模仿遊戲,當然也包括圖靈測試,其本意是說:兩個不同質的對象A和B是否可能在表現出的行為上足夠接近,以至於測試者無法對其作出區分。

那麼,這裡的關鍵問題其實倒不在於A和B在本質上有多麼不同以及在行為上多麼接近,而在於測試者如何區分——換言之,就和電影《機械姬》中我們所看到的那樣,最關鍵的是要選擇一個測試者,而不是被試。



那麼,我們如何對A和B做出區分呢?

  

一個貌似合理的回答,是說從A和B對測試者所提出的問題或者交互的反饋,來做出判斷,從而是完全行為意義上的。

但,這個回答其實只回答了一半,還有另一半——A和B所做出的行為,在測試者自身的知識經驗體系中到底在多大程度上接近「智能」的定義。

  

這個問題,可沒有我們所想的那麼簡單,因為,每個人對於什麼樣的行為是符合「智能」的定義是可以完全不同的。


圖靈提出模仿遊戲的本意是通過這種行為上的對比來迴避關於「思考」的模糊定義,在這裡其實就是對於「智能」的定義的模糊性,但問題在於,由於這裡必須引入一個仲裁者,而這個仲裁者個人關於到底什麼樣的行為是智能的、是「思考」,本身也還是存在模糊性的。

更嚴重的是,這種模糊性並不是固定不變的,而是可以改變的,而且可以變得非常讓人頭疼。

讓我們來看一個實驗——一個測試者面對著十個處於黑箱中的回答者,然後我告訴這個測試者,讓他找出這十個黑箱中哪些是真人——但我沒說到底有幾個真人。

這是一個不定項選擇題。

然後,幾乎可以有把握地說,我如果在這十個黑箱中安排的都是仿智能程序,但模仿程度不同,表現出來的行為接近人類的程度不同,那麼最後測試人員幾乎會很有把握地跟我說,那一個或者兩三個最接近人的仿智能程序是真人——只要這些程序不是錯得太離譜。

為什麼會這樣?因為這裡有了對比——九個提利昂·蘭尼斯特和一個潘長江站在一起,潘長江自然是最高的了,別管他到底有沒有達到中國男性平均身高。

在原始版的模仿遊戲中,當然不存在這樣的比較帶來的困擾,可問題其實依然存在:對於到底這個模仿多成功的判斷,很大程度上取決於測試者對於模仿行為所要體現的「思考」與「智能」的行為特徵的認定,從而是有模糊性的。

因此,本質上來說,基於模仿遊戲的圖靈測試所測試的並不是被試程序是否具有智能,本質上所測試的是被試程序在測試者看來有多符合(人這種)智能體的行為特徵,但後者「智能體的行為特徵」是前者「智能」的一個外延屬性,兩者本質上並不等同,具有後者的未必真的具有前者。

所以,智慧外星人來參加人類主持的圖靈測試,很可能會不及格,因為外星人的行為特徵本身就可能和人類的行為特徵完全不同,通不過測試很正常。

往進一步來說,人類本身的行為是否真的處處都符合這個「(人這種)智能體的行為特徵」?答案也是未必的——一位情緒激動的中年婦女來參加圖靈測試很可能也無法通過,因為,如果你和我一樣反覆觀察過的話,你會發現很多中年婦女情緒激動的時候會將同一個事件甚至同一句話反覆三次甚至更多,而且很多時候她所說的內容和你所問的內容沒有半毛錢關係。(當然,不得不提,我這裡並無意對中年婦女表示不敬,請大家不要誤會。)

問題在於,人類的行為,除了符合智能特徵的行為之外,還存在大量「無智」的行為,尤其在情緒上來的時候,因此從這點來說,圖靈測試甚至也不測試智能——如果真的完全按照模仿遊戲的規則來,那麼測試者完全可以激怒被試,然後被試的表現很大程度上應該會體現出失智現象,從而整個行為和智能就無關了——當然,關於情緒、情感、感性行為和理性行為,以及這些東西和「智能」與「思考」的關係,這個以後再說。

所以說,圖靈測試本質上和智能檢驗無關,它是關於被試是否足夠接近人的行為特徵測試,而且很大程度上依賴於測試者自身。

也因此,我們可以看到,關於圖靈測試還有一個增強版:完全圖靈測試。

在原始的圖靈測試中,測試者與兩位被試之間只能通過傳真機進行純文字的問答交流,但這樣的交流不免還是不足,因此在「完全圖靈測試」中,測試者與兩位被試之間可以通過一切人與人之間能實施的交互方式來互動,當然除了對對方造成傷害的互動方式。

從某種程度上來說,《機械姬》中的測試便是完全圖靈測試。



這個升級版的優越性,在於將原本只局限在文字交流的行為方式拓展為所有可能的行為方式,從而極大地增加了測試的準確度——一臺機器完全可能在不知道情緒是什麼的情況下,給出充滿情緒色彩的文本回復。

當然,有部分專家認為,如果一臺機器已經可以通過圖靈測試,那麼只需要一些簡單的支持性拓展,自然也可以通過完全圖靈測試,對此這裡不做展開討論。

但,很顯然這樣的升級版也還是不夠的,因為,就如前面我們所分析過的,圖靈測試本身較大程度上依賴於測試者。因此,如果測試者本身的隨機因素不去除的話,即便通過了完全圖靈測試,也依然不能就此簡單地認為被試機器已經成功地達到了「足夠接近人」這個目標。

為此,我個人提出了第二個升級版:終極圖靈測試。

測試方法其實很簡單:將被試機器人放到人類社會中,與人類保持接觸一同生活,經歷一段時間後,如果沒有人發現這個機器人有什麼超出人類行為合理程度範圍的行為,沒有任何不正常的怪異之處,沒有人能認出來它是一臺人工智慧機器人,那麼才能說這臺機器真的已經足夠接近人類了。

通過整個人群社會的整體監督,我們才能說將圖靈測試中可能存在的個人因素被恰當地排除了——當然,如果真要較真的話,這裡不過是將一個人群的平均判定取代了單個測試員的個人判定,模糊性與不恰當的偏性當然依然是存在的,比如放在非洲食人族部落和放在紐約曼哈頓,給出的判斷恐怕就會有一定的偏差。

但,無論我們的測試如何升級,基於模仿遊戲的圖靈測試系列都有一個問題難以迴避——我們只能經由此篩選出那些行為上足夠接近人類的機器,可,這樣的機器到底是否真的具有智能,真的可以獨立思考呢?

更關鍵的問題,這樣的機器是否具有那傳說中的人類一般的靈魂呢?


智能與靈魂


在人工智慧領域,除了圖靈測試,還有很多問題總是被大家津津樂道,其中最為大眾所熟悉的,恐怕就是這兩個問題了:中文房間,以及,瑪麗房間。

所謂中文房間,是指下面這樣的一個思想實驗:

"Suppose that I'm locked in a room and ... that I know noChinese, either written or spoken". He further supposes that he has a setof rules in English that "enable me to correlate one set of formal symbolswith another set of formal symbols", that is, the Chinese characters.These rules allow him to respond, in written Chinese, to questions, alsowritten in Chinese, in such a way that the posers of the questions – who dounderstand Chinese – are convinced that Searle can actually understand theChinese conversation too, even though he cannot.

翻譯過來就是說:假定我們將一個不懂中文的人鎖在一個房間裡,交給他一本記錄了中文所有字法、詞法、句法等規則的說明手冊和足夠多的中文字符,接著從房間外傳來很多中文字符,他根據說明手冊來選擇中文字符並傳出房間,在這個過程中房間外的人甚至會逐漸認為寫出從房間裡傳出的字符上的中文語句的「人」是懂中文的。

可問題在於,房間裡的人其實根本不懂中文,而傳出的中文語句卻讓人認為他懂了中文,從而指出行為認定上的「懂」與「真正意義」上的「懂」是不同的,進而藉此反駁基於行為主義的強人工智慧假說,因為強人工智慧假說認為如果一臺機器具有作為一個人的所有智能行為能力,那麼它必然也擁有心靈(mind)與意識(consciousness)。

在提出者約翰·希爾特看來,中文房間的外在行為無論多麼讓人認為房間裡的人是懂中文的,房間裡的人本身還是對中文一竅不通的。而,相應的,如果將整個中文房間看作是一個機器人,那麼這個不懂中文的人就是機器人的核心處理系統,而那本規則就是一套人工智慧算法,整個房間與人的互動就可以看作是一個圖靈測試,從而中文房間問題就可以被表述為:通過圖靈測試的機器本質上依然不具備人一樣的意識與智能,它所作的不過是按照規則來反饋罷了。

通過這種將行為上的懂得與實際操縱者的懂得區分開的二元觀點,希爾特認為有效地反駁了通過強人工智慧假說。


於此相應的,瑪麗房間——大家了解這個問題大概還要歸功於《機械姬》吧,因為這就是電影中所提到的「黑白房間裡的瑪麗」——問題可以這麼來表達:

Mary is a brilliant scientist who is, for whatever reason, forcedto investigate the world from a black and white room via a black and whitetelevision monitor. She specializes in the neurophysiology of visionand acquires, let us suppose, all the physical information there is to obtainabout what goes on when we see ripe tomatoes, or the sky, and use terms like『red』, 『blue』, and so on. She discovers, for example, just which wavelengthcombinations from the sky stimulate the retina, and exactly how this producesvia the central nervous system the contraction of the vocal cords andexpulsion of air from the lungs that results in the uttering of the sentence『The sky is blue』. [...] What will happen when Mary is released from her blackand white room or is given a color television monitor? Will she learnanything or not?

簡單來說,就是如果一個天才科學家瑪麗一生都被關在一個房間裡,只能通過黑白顯示屏來看外面的世界。同時,瑪麗又知道關於色彩的所有物理學與神經學等知識,知道當看到彩虹或者天空或者紅色藍色等物理信號時,自己的腦神經應該做出什麼樣的反應。那麼,當瑪麗走出房間,或者黑白顯示器被替換為彩色顯示器時,瑪麗會怎麼樣?她是早就掌握了這些看到的東西,還是又有了全新的知識?

問題提出者法蘭克·傑克森通過這個思想實驗,駁斥了物理主義所認為的世間一切皆物理的觀點,因為在瑪麗房間問題中,雖然瑪麗了解了與色彩相關的物理方面的一切,但當她真正地看到那些色彩的時候,必然會有全新的認識,然而這些認識是脫離那些物理實體而存在的東西。


在機器人問題中,其實和中文房間問題一樣:機器人通過傳感器感知到了外部世界傳來的一切物理信息,無論是熱還是色彩,但物理信息並不是人類感知的全部,所以機器人並不能真正地通過傳感器來感受到人類能感受到的一切。

上述兩個思想實驗都試圖論證強人工智慧的不可行(雖然瑪麗房間的提出原本和人工智慧問題無關,但強人工智慧假設在某種程度上和物理主義也是有聯繫的),而且看上去都頗有力,從而為人工智慧的崛起抹上了一蒙陰霾。

但,事實上真的如此麼?


從某種意義上來說,中文房間與瑪麗房間正好是相反的兩個問題。

中文房間問題中,人工智慧對外界輸出,且輸出完全符合外界的判斷標準,但房間問題提出者依然指出這並不等於說人工智慧就真的具備了人的靈魂與智能。

而在瑪麗房間中,這個問題正好反過來,人工智慧通過物理傳感器來獲得外界的一切輸入,但這是否就意味著人工智慧因此而真正理解與感受到外界了呢?房間問題提出者認為並非如此。

事實上,我們還可以結合這兩者,弄出一個「黑白中文屋中的瑪麗」問題:瑪麗懂得關於色彩的一切知識但不懂中文,然後房間外的人讓瑪麗畫一副關於蔚藍天空的包含一首唐詩的水彩畫,於是瑪麗通過自己所擁有的關於色彩的知識和中文屋說明書,控制連接到屋外的機械臂和一臺光譜分析儀,選擇顏料並進行繪畫。那麼,請問,瑪麗到底知道自己畫了什麼麼?如果她後來看到了自己所畫的畫的本體,是否會通過自己的畫作了解到更多自己原本不知道的東西呢?

你看,現在所有的感受都是物理信號,瑪麗並沒有真正感受過天空,而是根據知識(當然也包括如何繪畫天空才好的知識)來進行畫作;她也不懂中文,只是根據說明書寫出了一首唐詩。她既不懂天空也不懂中文,卻畫出了一副有著一首唐詩的關於蔚藍天空的水彩畫,這樣的事情怎麼想都感覺是不可思議的。

可,從另一個角度來說,人不也是如此麼?

人的眼睛與耳朵所看到與聽到的外界的信息,最後都是通過神經電脈衝的形式傳遞到大腦的,而,這無論是模擬信號還是數位訊號,本質上都還是物理信號啊。由此可見,如果說人是通過大腦對這些物理信號進行加工處理從而形成感受的話,那這樣的過程就沒道理說人工智慧的CPU中不會進行。


從某種程度來說,中文房子也可以和人腦做類比——整個人就是中文房間,而那個房間裡不懂中文的人就是我們的大腦,那本說明書就是我們的大腦通過學習而積累下來的關於中文的所有知識,那麼中文房間問題是不是告訴我們其實中國人的大腦根本不懂中文?

對此的反駁在於那本說明書——a set of rules in English that "enable me to correlate one setof formal symbols with another set of formal symbols"。

在希爾特看來,這本說明書本質上是一套關於符號變換的形式化體系,而,人腦理應不是形式化系統,所以中文房間對人的類比無效。

可是,同樣的說法對於AI來說也成立——誰說能通過圖靈測試(無論是原始圖靈測試還是完全圖靈測試還是我的終極圖靈測試)的人工智慧的那套算法就是一套「形式系統」了?

雖然我們現在,以及在可以想像到的未來,程序都必然是通過程序來給出的,從而都是可以用完備可枚舉語言這一類人工語言來寫出的,從而勢必這樣的算法可以被看作是一個形式系統。但,我們並不知道的是,未來的AI是否依然是通過這樣的方式來實現的。

既然中文房間對AI是指通過圖靈測試的AI未必如人一般擁有心靈與智慧,那麼我們當然需要考慮通過圖靈測試的機器到底是否是形式系統這樣的問題了,而這樣的問題我們現在並沒有一個明確的答案。

另一方面,人類大腦的工作流程是否真的不能被表達為一種形式系統呢?目前對此並沒有一個很明確的答案。提出過震驚世界的關於二階謂詞系統的完備性和自洽性不可兼得的哥德爾,曾利用他的不完備性定理試圖論證人的心是超越形式系統的存在。

哥德爾首先指出:「從我的定理可以推出的結論只能是如下形式的選言判斷:或者數學是不可完全的,即它的自明的公理不可能包含在有窮規則中,因此人心超過有窮機器;或者存在人心絕對不可判定的數論問題。」然後,他通過希爾伯特式的預設「人類理性提出的問題人類理性一定能夠解答」來排除了第二個選項,於是便「證明」了人心超越形式系統,從而人心超越任何可能的人工智慧。



庫爾特·哥德爾(Kurt Gödel)


但,且不說這裡通過強行定義的方式將「不利於人心」的選項給排除了,就說這個論證本身,也隱含這麼一個問題:即便存在一臺機器可以如人心一般具有數學直覺,人們也無法驗證這點。這點本身就是哥德爾的理論所要求的。

因此,人心果然可以超越形式系統這點,本身其實是被定義的,而不是被嚴格論證的結果。

所以,回到中文房間問題,會中文的人腦中對中文的理解所作的操作難道真的不能被表達為某種形式系統麼?如果這點並沒有證明的話,那實際上我們就不能說中文房間問題對人腦就不適用——會中文的人的腦子根本不會中文,只是表現起來仿佛會一樣,這樣的自相矛盾最終所導致的就是「哲學殭屍」。

進一步,我們知道腦島皮質、前扣帶皮質和內側前額葉皮質對於意識的產生起到關鍵作用,也知道布若卡氏區負責管理語言產生而韋尼克區負責語言理解,那麼我們是否可以說其實大腦中的人類意識並不真的懂得中文,僅僅是根據韋尼克區返回的結果結合負責記憶與知識的腦區的資料讓布若卡氏區產生回復麼?

當然不能。這種將大腦的不同區域做分割然後問其中是否某一個區域懂中文而別的區域不懂,這樣的做法本身是有問題的,實際上我們只能說:大腦整體所表現出來的就是懂中文。

對於人工智慧來說,其實情況也很類似:我們不能指著CPU問到底上面的哪一個PN結具有真正的人工智慧,實際情況是整個機器整體具有人工智慧。在中文房間中,說明書負責理解和做出反饋就好比CPU和存儲器,人類則負責信息的傳入傳出就好比數據總線與指令總線,而房間則給出了輸入輸出設備,我們怎麼能將CPU、存儲器、數據總線和指令總線分開,然後詢問那兩根總線是否懂中文呢?這樣的提法不覺得很奇怪麼?真要說的話也應該問那本說明書是否懂得中文——但這也等於問一個中文操持者,你所掌握的所有中文知識、你對所有可能的中文交互的理解與反應,這樣一個整體,是否懂中文?

事實上,這裡就牽扯到兩個問題:

首先,「懂」的準確定義是什麼?

其次,整體的懂是否可以合理地分解為某幾個組成部分的懂?而這樣的分解和中文房間文中的提問方式是否相融?

從中文房間提出者希爾特的觀點來看,顯然他所認為的「懂」是超越了人與人正常交互這個範疇的,即即便一個人和你交流某個領域的問題,讓你覺得一點點「他可能並不懂」的疑惑都沒有,你依然沒有理由說他真的懂了,因為希爾特在反對強人工智慧假說時就是這麼論證的——從交互上來說無法說「不懂中文」的中文屋子卻被認為並不真正懂得中文,至少那「核心」的部分如此。

可是,如果對於「懂」的判定超越了所有可能的行為,那麼一個人是否懂就只能去拷問這個人的「心靈」,而這種拷問無論以什麼方式與詢問者交互,都是不可靠的,那就是說——一個人是否懂這件事只有他自己知道,別人一概不知。

如果一個人懂中文這件事可以被別人知道,那麼請問是如何被人知道的呢?是否存在不通過任何可能的交互方式的方法讓一個人知道你真的懂中文?如果這樣的方法不存在,那就是說懂不懂對於他人來說依然需要通過交互來體現,那麼通過交互體現出「懂」這一行為的中文房間為何就不算懂呢?如果這樣的方式存在,請給出。

因此,如果要保持對「懂」的定義具備可操作的判定手段而不是純粹唯心的思辨或者說狡辯,我們就必須面對第二個問題:整體懂和部分懂是否是同一的?

這樣的問題或許也可以這麼問:具備群體智慧的螞蟻和蜂群,其中的每一個螞蟻和蜜蜂是否具有智慧?

如果說中文房間的「懂中文」可以推論出房間中的人也「懂中文」的話,那等於說組成整體的部分也必然具有和整體相同的屬性,但這點顯然是錯的。

當然你可以說這裡其實是「構成整體的部分中的某一個部分具有和整體相同的屬性」,可這樣的「子部分」在中文房間問題中是否真的是以房間中的人的形式而存在的呢?

你看,問題從頭到尾都是提問者假定了這個人真的可以擁有和整個房間相同的屬性這個前提,但,這是假定,並不是證明,而假定完全可能是錯誤的。

引申到人工智慧的問題上來,這樣問題實際上就是:如果一個機器人在行為上和人一點差別都沒有,無論通過什麼方式任何人都無法區分這部機器到底是人還是機器人,那麼這樣的人工智慧是否具有靈魂?

或者,可以這麼說:這樣的人工智慧究竟是有靈魂的偽人,還是無靈魂的哲學殭屍?


哲學殭屍與他心通


從強人工智慧假設的角度來說,如果一個物體在與人的交互過程中,任何一個人都無法感受到這個物體不是人類,那麼這個物體就必然擁有與人無差別的靈魂。

但,某些哲學家卻認為:不,這樣的人工智慧說到底不過是一具哲學殭屍罷了,並不具備與人無差別的靈魂。

那麼,哲學殭屍到底是否有靈魂呢?或者說,到底如何來區分你面前的一個人到底是人還是一具哲學殭屍呢?

這個問題便是一個他心問題(Problem of other minds)。

如果一個人工智慧已經通過了圖靈測試——就比如說已經通過了我提出的終極圖靈測試,那麼,這樣的一個人從整個社會的每一個人來說,都和真人無異,沒有絲毫區別,無論是從行為還是從感情上來說(感情也必然是通過行為表達出來的,這裡的行為包括臉部微表情等等看得見摸得著可以用最尖端的儀器測量的所有一切,甚至包括放的屁),那麼這樣的一個看上去和人沒有絲毫差別的傢伙到底有沒有人的靈魂呢?

如果你不是一位人工智慧學家,也沒有通過揭破都手段看到這傢伙的「內在真相」,那麼你一定很難認為這樣的存在是沒有靈魂的。

事實上,在日常生活中,我們也不會將一位面對面的同事解剖來看看他是不是機器人,更無法通過任何手段來知道他是不是一具哲學殭屍,那麼我們怎麼知道對面的同事到底有沒有靈魂呢?

或者,讓我們換一個問題。

在《機械姬》這樣的設定中,如果現在有兩個「人」站在你面前,一個是愛娃這樣的具有機械身體的「女人」,另一個是京子這樣的具有人類肉體的「女人」,你怎麼確定這兩個人裡面哪個是人哪個是機器人?

很顯然,你可能會認為京子這樣的是真人,而愛娃這樣的是機器人(當然,這裡不考慮因為電影的因素而說一個具有人類肉體的「女人」其實是機器人這種劇透黨)。

為什麼?

因為「京子」從外觀上更像人啊。

但這是真的麼?



假定,一個已經通過圖靈測試的AI,通過各種高科技手段,復活了一個死去的女人的屍體,但沒有復活她的大腦,而是操縱她的復活了的軀體進行和人無差別的行為,她是京子。而另一邊,一個人類,通過一套操縱設備操縱著一臺剛剛造出來的愛娃軀體,進行和人無差別的行為。

這兩個人——人工智慧和真人——分別使用人與機器人的軀體,都進行著和人無差別的行為,與你交互,你怎麼知道那個具有人類肉體的京子實際上是AI,而那個機械身體內的卻是人類的靈魂?

當AI通過最嚴苛的圖靈測試後,我們不可能通過任何非破壞性手段來區分它和人類,那麼我們怎麼知道通過軀體而作的判斷是靠譜的?

在上述實驗中,如果我不告訴你AI操縱的到底是人身京子還是機體愛娃,也不告訴你人類操縱的是機體愛娃還是人身京子,你到底如何判斷你所看到的京子和愛娃哪一個具有「靈魂」?

不,你根本不可能做出合理的判斷,你的判斷的出發點更多的是:人身與機體相比,更接近人類,所以京子有靈魂,愛娃沒有。

但,實際情況呢?沒人知道。

你怎麼知道網絡上和你聊天的不是一條狗?

當人工智慧真的通過了最嚴苛的圖靈測試,在行為上與人沒有分別之後,沒有人可以區分站在你面前的傢伙到底有沒有靈魂。

而,這個問題之所以是問題,就是因為有人認為人工智慧僅僅是哲學殭屍,沒有靈魂。

於是,真正的問題就是:是否可能存在哲學殭屍?是否說,只要一個對象在行為上和人沒有絲毫區別,這個對象就必然擁有靈魂?

現在,讓我們來問自己這麼一個問題:你怎麼知道除了你自己以外的其他人,不是沒有靈魂的NPC?

然後,再問自己一個問題:你怎麼可以確定自己真的有靈魂?

第二個問題大家普遍認為更好回答一點:我當然知道我是有靈魂的啦。

Cogito, ergo sum.


我思,故我在。

但凡不經思考就認定自己必然有靈魂的,理由大概都可以歸結為上面這句話。可,上面這句話真的是確定無疑地正確的麼?

笛卡爾之所以提出這個論斷,在於對世間一切持普遍懷疑態度的他突然意識到,雖然世間的幾乎一切都可以懷疑其真實性,但有一點是無法懷疑的,那就是懷疑所有一切的那個懷疑主體,這個主體必然是存在的,否則就無法懷疑了。而懷疑是一種思考,一種思維活動,所以思考的主體,即「我」,是存在的。

所以才有了「我思故我在」。

換言之,我思故我在的成立條件,就是思考的主體的存在性。

那麼,是否有可能一個「思考過程」不是由一個靈魂所發出的呢?

假定,我給一臺通過最嚴苛圖靈測試的人工智慧編寫一個程序,讓它不斷地思考,可以是懷疑,可以是分析,可以懷疑世間一切的存在,也可以分析自身的狀態,那麼,它是不是也符合「我思故我在」,從而它的靈魂也就必然是存在的了?

反對者可能首先就要說,這樣的「思考」過程機器不具備。

那麼,為什麼一臺通過圖靈測試的人工智慧不具備思考的能力呢(還記得圖靈最早的那個問題「Can machine think」麼)?

我們說機器無法思考的理由,是因為機器沒有靈魂,沒有「我」。

因此,這就是說,我們說機器無法得到「我思故我在」的「我」的理由,是機器沒有靈魂也即沒有「我」。

再簡化一步,上面的情況就是說:我們之所以說機器沒有「我」,是因為我們說機器沒有「我」。

因此,一個合適的方法,是給出一個不是循環定義循環論證的邏輯結構,其中「思考」可以被嚴格而明確的定義,並通過這個定義我們可以論證人類是可以思考的,而通過最嚴苛圖靈測試的機器不可以,從而證明人類有靈魂而機器沒有。

但,在如此而為之前請先停一下,上述的定義體系邏輯結構還要滿足一點:同樣的論證對人類不能也得到別的人沒有靈魂這樣的結論。


在「我思故我在」的語境下,其實我們都無法判斷面對面的一個人有沒有靈魂,因為他/她是否真的在思考呢?我們並不知道。

笛卡爾懷疑通過感官感受到的一切,從而站在我們面前的那個人完全有可能是缸中之腦般的虛擬。在笛卡爾的懷疑論中,只有我自己是可以確定的,和我沒有絲毫區別的你以及別的他人到底是否是真實的,這點完全無法確定。因此,「我思故我在」的另一面其實是:「子非魚,安知魚之樂?」

我不是你,我不知道你有沒有思考有沒有靈魂。這便是我思故我在所帶來的困局。

那麼,人們到底是如何確定面對面的另一個人不是哲學殭屍的?

就和上面的京子-愛娃思考實驗一樣,這個問題的答案僅僅只能通過相似性來獲得。




人類具有一個神經結構,被稱為「鏡像神經元」,它是共情能力的源頭。

鏡像神經元會在與自身足夠相似的別的個體執行某一個行為時,發出衝動信號,從而使人具有「感同身受」的同理心。

同樣的,當我認為自己是有靈魂的時候,我們自然也會認為那些和自己足夠相似的個體也是有靈魂的——所以,就算是一個人在操縱一條狗,我們看到這條狗的時候依然不會認為這條狗具有和自己一樣的靈魂,除非它突然開口說話或者伸手寫字。

從這點來說,人們對於別的個體是否有靈魂的判斷,很多時候都是非理性的。

那麼,在人與人工智慧的京子-愛娃實驗中,實際上所發生的,就如此前所描述的,我們僅僅是通過各種可被感知的外在相似性來判斷到底哪個具有如自己一般的靈魂,哪個沒有——因此,無論京子背後的操縱者到底是人工智慧還是人,僅僅是因為京子在外觀上更像人,從而,在人工智慧已經通過最嚴苛的圖靈測試從而從交互行為上無法和人做出區別這個大前提下,我們人類順利地通過長相來判定京子是有靈魂的。


人類其實並不管真相是什麼,讓自己心安理得心裡舒服才是最主要的。

說到底,人首先將自身歸類到人類,然後通過自身具有靈魂這個或許正確的前提,給出了所有人類都具有靈魂這個結論,接著對所有非人類的對象打上「沒有靈魂」的標籤。可事實到底是否如此呢?

甚至於,如果說上述與人無法做出區別的人工智慧的軀體是通過生物技術構造的有機身體,承載智能的中央處理器是生物電腦,那麼這樣的一個從生物學意義上來說絕對是生物的東西,擁有一枚人工智慧的大腦,這樣的有機體是否擁有靈魂?是否是有機生命?

這樣的搭載人工智慧算法的生物電腦和金屬做的人工智慧機器人沒有本質上的區別,因此如果說後者沒有靈魂,那麼前者也沒有靈魂,依然只是哲學殭屍。那麼同樣是生物體,你怎麼知道你周圍的人不是這樣的人工智慧生化人?

對此,人們實際上所做的事依然是一種無智的歸類:這是生化人,生化人是人工智慧,人工智慧被人類認定為沒有靈魂,所以生化人沒有靈魂。至於這個生化人到底有沒有靈魂,倒是不重要——反正人們也無法分辨這樣的通過最嚴苛圖靈測試的從交互行為上和人無法區分的生化人到底是哲學殭屍還是真人。



再進一步,如果突然某一天來了一組外星人,你怎麼知道這些外星人是有靈魂的?他們到底是外星人本體,還是外星人所造的搭載了通過最嚴苛圖靈測試的從交互行為上和外星人自身無法區分的通過生物工程製造的生化外星人?

還是說,人類應該認為,只有人類是有靈魂的,所有外星人都沒有靈魂?

這不過就是一個星際版的我思故我在遊戲罷了,一個橫跨整個宇宙的他心問題而已。

如果說我們認為外星人是有靈魂的,那是為什麼?

我們只能通過其外顯的行為,來鑑別其是否具有智慧特徵,從而通過「有智慧」來給出「有靈魂」的結論。

既然對外星人可以如此,那麼對機器人為何不能如此?

這裡糾結的重點其實是:因為我們知道機器人是我們造出來的,但我們並不認為外星人是我們造出來的,而我們普遍認為靈魂是人類所獨有的高貴的特質,人的造物不配擁有。

說白了,不過是一種狹隘又無智的純粹感性的信仰罷了,和事實無關。

那麼,如果說未來人們可以通過基因工程培育出一種全新的和人完全不像的物種,它也有智慧表現,那麼這樣的東西是否有靈魂?如果基因工程中合成這種生物所用的基因具有人類的基因片段,那恐怕人們會很自豪地認為這樣的造物是有靈魂的;而如果沒有人類基因片段的話,恐怕這樣的生物的行為就算再怎麼智能,也不會被大多數人認為是有智慧的吧——因為這樣的話,這種和人的本質完全無關的異生就也有了靈魂,那麼人類高貴的獨一性就不復存在了。

甚至於,即便完全是用人的基因構成的生命,人們也不會認為他們就真的有了靈魂——比如,有人提出一個人的複製人其實是哲學殭屍,而不是具有靈魂的真人。

為什麼?究其原因,依然是「造物不能超越甚至不能接近造物主」的狹隘的人類高貴性情節,這麼一種虛無縹緲的妄念。

如果人們通過基因手段,篩選出精子和卵子,在人工子宮中孕育出一個人來了呢?這樣的人是否擁有靈魂?這樣一個誕生過程完全在實驗室中完成和人體的自然過程半毛錢關係都沒有的「合成人」,無論和人怎麼接近,也是人的「造物」,從而恐怕很多人依然會認為此「人」不過是一具沒有靈魂的殭屍吧——這樣的鬧劇在人工授精剛誕生的時候便已經上演過了。

可見,我們在利用相似性來認定人類擁有靈魂的同時,又通過「我創造了你」來認定「造物」是沒有靈魂的。

整個過程中和靈魂是什麼已經無關了,更多的是一種對於自身在整個世界中的獨特地位的一種內肯,一種自評。

所以,一個從交互行為方面來說和人沒有絲毫分別的人工智慧到底有沒有靈魂呢?

人們在提出這個問題的時候,其實真正提出的是一個確定的答案與標準——你是我的造物,你不配有靈魂。

問題從來都和問題本身無關。


  

當你的手機開始自己聊天時


人工智慧是否會夢到電子羊?

這個問題的答案我並不知道。

但我所知道的是,如果某一天你發現你的手機上的Siri自己在和小冰機器人聊得熱火朝天的時候,你絕對不會開心地感受到一個新生命降臨的喜悅,而是驚恐地扔下手機躲到一旁。

你並不會因為它的智慧而感受到靈魂的悸動,而只會因為它的智慧而感受到背脊發涼。


非我族類者,其心必異。

人說。



相關焦點

  • 坤鵬論:瑪麗的房間和哲學殭屍 心靈哲學二元論派的詰問
    6.思想實驗——瑪麗的房間澳大利亞哲學家弗蘭克·傑克遜從副現象論出發,提出了瑪麗的房間這個思想實驗,用來批判認為」世界上包括意識在內皆為物質「的物理主義。小知識:中文房間在《機器能思考嗎?》中,坤鵬論介紹過中文房間這個經典的思想實驗,它向人們揭示的是,如今所謂的機器智能都不過是規則+記憶,它們的學習能力並不等於智能。
  • 原創 | 人工智慧漫談之圖靈測試與中文房間
    不過,對圖靈測試地駁斥,不必等到現在,John Searle在1980年就已經提出了一個強有力的思想實驗去嘗試駁倒圖靈測試(順帶揪住強人工智慧暴打了一通),這就是同樣大名鼎鼎的中文房間思想實驗。個人習慣,還是要先聊句題外話。
  • 中文房間之爭-淺論到底什麼是智能
    房間裡這個完全不懂中文的美國人,按照手頭的規則書,把問題的正確回答拼湊出來後遞出去(輸出)。按照圖靈測試的標準,房間裡的人被認為具有理解中文的智能,然而,實際上他對中文一無所知。要注意的是,這本規則書上僅僅只是基於語法(Syntax)的,而不涉及任何語義(Semantics)。
  • | 五部探索人工智慧哲學的影視作品
    電影—《機械姬》《機械姬》的偉大之處在於它充滿了哲學理論和思想。程式設計師史密斯(Caleb Smith)在一次競賽中獲勝(至少一開始看起來是這樣)後,發現自己被帶到了搜尋引擎巨頭「藍皮書」(Blue Book)的首席執行長貝特曼(Nathan Bateman)位於私人島嶼的家裡。
  • 科幻電影賞析 《機械姬》 視頻
    《機械姬》電影中的哲學一、圖靈測試艾倫·麥席森·圖靈(英語:Alan Mathison Turing,1912年6月
  • 思想實驗 | 中文房間:機器能否具有心智?
    然而在上世紀八十年代,美國哲學家約翰·塞爾(John Searle)設計了著名的思想實驗「中文房間」(Chinese room),對圖靈測試的設計進行強有力的反擊,並推翻了強人工智慧學派所持的過強主張。
  • 應用融智學分析首次通過圖靈測試,給了我們什麼啟示?
    與塞爾中文房間論題的理想實驗的科學假設相比較,圖靈測試要求並不高,為何經過65年才首次通過?這個問題不僅涉及數學和計算機科學以及語言學,而且還涉及分析哲學尤其是其中的語言哲學、心智哲學和社會哲學,同時,還涉及軟體、知識和語言三大(系統)工程,而絕對不僅僅只是涉及信息處理、大數據和人工智慧三大技術。
  • 《機械姬》:一部反人類的科幻電影神作 獨家
    【三】、「反人類」,還反「圖靈測試」讓我們從這讓人不痛快的「反人類」寓言中走出來,回味一下《機械姬》中最美好的那些段落,有關「圖靈測試」段落吧。以偉大的計算機之父圖靈命名的「圖靈測試」是這樣的:人類與計算機進行交互的時候,如果人類並不知道他們在與一臺計算機進行交互,測試就通過了。
  • 從CK定理,到哲學殭屍
    如果,在一個變化後的圖靈測試中,人類無法區分自己所面對的到底是人還是非人,那麼由此是否能給出該非人具有自由意志?這一問題的另一個拓展在於:自由意志完全可以表現得和人的行為模式不同,那麼我們到底如何判斷一個非人應激系統是具有自由意志的?
  • 從哲學看科幻電影的套路
    通過圖靈測試之後怎麼辦?說到人工智慧,當然不能不提著名的「圖靈測試」(Turing test)。但是要看到,圖靈測試僅僅提出了一個行為主義式的操作定義,而且僅僅涉及日常語言處理。即便如此,想要通過圖靈測試並非易事。1952年,圖靈在接受BBC訪談時提出了一個新想法,實際上進一步降低了標準:讓計算機來冒充人。如果超過30%的裁判誤以為在和自己說話的是人而非計算機,那就算作成功。
  • 科幻驚悚片"機械姬"首曝預告 "驚變28天""太陽浩劫"編劇導演處子秀...
    時光網訊 《驚變28天》、《太陽浩劫》的編劇亞力克斯·嘉蘭首度擔任導演,執導的科幻驚悚片《機械姬》(Ex Machina)日前曝光首款預告片。  片中,伊薩克飾演一名神秘的億萬富翁,格裡森飾演他公司的一名程式設計師,後者由於贏得公司一項幸運大獎而被邀請到老闆的別墅共度周末。這棟別墅隱匿於林間,它其實是一座高科技的研究所。
  • 哪些建樹歸功於圖靈,哪些卻不能算到他名下?
    真正的模仿遊戲拋開好萊塢的電影,圖靈很大程度上成名於「圖靈測試」,這是他提出的一條衡量機器是否會思考的標準。思考這個問題的,當然不只有圖靈一個人。20世紀40年代,當早期的電子計算機誕生之時,機器是否會思考已然是一個數學家討論的熱門話題。
  • 啥叫「哲學殭屍」?會咬人嗎?(一)
    怎麼中文網際網路上的介紹不多、講的他看不明白。如果說人的內心世界不是物質的,難道人有靈魂嗎?你別騙我啊,我可是堅定的唯物主義者;這些哲學家的不好好說話,他們究竟想說些什麼?儘管「哲學殭屍」這種說法聽起來很荒謬,但它的的確確涉及到一個技術性很強的哲學問題,無法以三言兩語、生活化的方式簡單說清。如果你讀到這裡,還對哲學殭屍,以及所衍生出的哲學問題保有好奇,並具有相應心理準備與耐心,那就請繼續讀下去。
  • 70年前計算機之父圖靈就曾預言,「機器也許有一天能像人類一樣思考」
    作為回應,圖靈向《泰晤士報》的記者說道:「這種比較也許有失公允,因為由一臺機器寫成的十四行詩,其他機器大概會比我們更能欣賞。」這個回應似乎有些無禮,但同時也是耐人尋味的。之前的研究為圖靈的下一篇重要論文打下了基礎,這篇題為《計算機器與智能》的論文在1950 年10 月發表於哲學期刊《心靈》(Mind)上。他在其中提出了一個被稱為「圖靈測試」(Turing Test)的概念。
  • 影評:《人造意識》/《機械姬》等到機器人不需要人類的那一天
    《人造意識》/《機械姬》入圍了88屆奧斯卡獎的最佳劇本、最佳視覺特效兩項目,這部電影並沒有正式在臺上映,可是評價很高。而既然HBO似乎打算在奧斯卡獎頒獎前夕頻頻播映這部片,大家不妨就抓緊機會趁機觀賞她。
  • 圖靈測試介紹 圖靈機的工作原理詳解
    圖靈測試介紹 圖靈機的工作原理詳解 工程師3 發表於 2018-05-01 10:45:00 圖靈測試簡介 圖靈測試(TheTuringtest)
  • 今日之AI,能否回應「中文屋」的質疑?
    1980年,美國哲學家約翰 · 賽爾(John Searle)在《心靈、大腦與程序》這篇論文中,提出「中文屋論證」思想實驗,認為機器不可能真正達到人那樣的自主意識,即使它通過了圖靈測試。圖靈與賽爾,到底誰的觀點才預言了人工智慧的終極未來呢?探尋思想:洞察機器智能的靈性之窗首先,有必要先解釋一下,今天我們探討機器人是否能具備思維,到底有何意義?
  • 啥叫「哲學殭屍」?會咬人嗎?(三)
    他認為某些假設是無法推翻(undefeatable)的,這意味著無論我們獲得了多少知識或我們思考了多少,即使我們達到了全知、完全理性的境界,也會保有那個假設。換句話說,如果我們發現一些理由,認為一個設想是無法推翻的,便確立了一個理想的設想。問題是,為什麼我們可以說哲學殭屍的設想是理想的,是無法推翻的?查莫斯未嘗明言,但是他的很多其他作品都揭示了他的想法。
  • 艾倫·圖靈——如謎的解謎者
    這個問題是說,是否存在一個通用的、機械的方法,能夠判定所有數學命題的真假?  1935年初夏,年輕的圖靈習慣在午後沿著康河長跑,然後躺在格蘭徹斯特的草地上休息,他就在這裡,想到了如何回答這個問題。首先,他設計了一種假想的機器。這種機器有一條無限長的紙帶,和一個可以沿紙帶移動的讀寫頭。紙帶劃分成無數個格子,每個格子可以是空白的,或是記錄一個符號。
  • 圖靈逝世66年後,AI可以自我思考了嗎?
    *  圖靈的早逝無疑是人類歷史上的一個巨大損失。作為「計算機之父」、「人工智慧之父」,圖靈在計算機科學與人工智慧領域有諸多貢獻,他提出的「圖靈機」設想啟發了現代計算機的發明,而其更著名的「遺產」,是一種用於判定機器是否具備智能的測試方法,即「圖靈測試」。