今年3月AlphaGo戰勝李世石的那一幕似乎猶在眼前,最近美劇《西部世界》(Westworld)又引發了熱議,有關人工智慧的話題再度進入了大眾的視野。在過去幾年裡,史蒂芬·霍金、比爾·蓋茨和埃隆·馬斯克等人,在不同場合表達了對人工智慧「奇點」(singularity)到來的擔憂。英國牛津大學的人類未來研究所(Future of Humanity Institute)在2008年發布的一份報告中提出,超級智能(superintelligence)在21世紀毀滅人類的概率達到了5%,僅位列納米武器之後。未來學家們依據摩爾定律紛紛做出了大膽的預測:強人工智慧(strong AI)可能在2025年左右實現。這似乎意味著,超級智能可能以出乎意料的井噴方式出現。不得不看到,這其中暗含了人工智慧研發行業吸引風險投資的策略性發言,但技術演進可能引發的倫理和社會風險,值得從哲學角度來加以未雨綢繆的審視。
「智能」是人類特有的嗎?從哲學角度來思考問題,首先要做的就是對每一件事物做明確的定義,確定要討論對象的邊界與範疇。約翰·麥卡錫(John McCarthy)在1955年最早使用了「人工智慧」一詞,其定義是「設計和研究智能的行動者(intelligent agents)」。這個定義先天地存在循環定義的問題,即用「智能」來定義「智能」。從後來人工智慧領域的發展來看,似乎大部分工程師並不在意這些「定義」,而直接將智能分拆為各種具體的技能——弱人工智慧(weak AI),例如推理、分析、學習、計劃、自然語言、感知等,希望它們可以部分替代人的能力。
從哲學史視角來看,近代法國哲學家笛卡爾在《談談方法》(Discourse on the Method, 1637)中提到的「自動機」(Automaton),可以被視為「人工智慧」理想源頭。像布穀鳥時鐘、日本的機關木偶、達文西機器人和八音盒等機械人造物,都是他心目中的自動機。在笛卡爾看來,雖然這些自動機可以做出非常精妙的動作,甚至可以設想它們能夠說出幾句話來,但歸根到底它們僅僅是機械構造。自動機的所有動作和聲音可能性都包含在其機械構造中。例如八音盒演奏的音樂來源於其中的音筒,它不可能播放超出音筒上預刻的內容。在笛卡爾的時代,人們已經具備了一些解剖知識,也有人將人體看作是一臺有血有肉的「機器」。但是笛卡爾認為,有兩種能力或者特徵是人類特有的:語言和學習的能力。這兩者在笛卡爾的身心靈二元論世界中,都屬於心靈或者精神的特殊能力,而不屬於物理-機械世界。這使得人和其他自然界的造物有所不同,正是這些能力是人之為人的驕傲之處。然而笛卡爾遺留了一個哲學難題:既然身體屬於物理世界,心靈屬於精神世界,那麼這兩個世界是如何發生因果關係的?人工智慧發展至今,顯然對笛卡爾二元論的世界觀形成衝擊與挑戰,計算機這種機械-物理構造似乎「具備」了一些初步的語言和學習能力。
從另一方面來說,人類對自身思維-心靈的研究也始終未出現大的突破——大腦的工作機制尚未得到詳盡的解釋。因此,除了人類自身的驕傲之外,我們還有什麼理由堅信,「智能」真的只能來源於這個幾百克的器官之中,而在原則上不可能為人造物擁有?也有人堅信,要讓機器具備智能並不必要模仿人類大腦。這好比飛機的飛行並不用模仿鳥類翅膀的撲動。
通過圖靈測試之後怎麼辦?說到人工智慧,當然不能不提著名的「圖靈測試」(Turing test)。1950年,英國數學家阿蘭·圖靈在其具有劃時代意義的論文《計算機器與智能》( "Computing Machinery and Intelligence" )中提出,如果一臺機器能夠與人類展開對話(通過電傳設備),而不能被辨別出其機器身份,那麼稱這臺機器具有智能。這就是著名的「模仿遊戲」(The Imitation Game),即讓機器來模仿人。但是要看到,圖靈測試僅僅提出了一個行為主義式的操作定義,而且僅僅涉及日常語言處理。即便如此,想要通過圖靈測試並非易事。1952年,圖靈在接受BBC訪談時提出了一個新想法,實際上進一步降低了標準:讓計算機來冒充人。如果超過30%的裁判誤以為在和自己說話的是人而非計算機,那就算作成功。時隔幾十年後,我們日常使用的蘋果Siri和微軟cortana雖然具備了一定的對話能力,但經常出現一些令人啼笑皆非的回答,很容易讓人意識到它們不是人類對話者。
不過,突破不期而至:2014年6月7日,聊天程序「尤金·古斯特曼」(Eugene Goostman)首次通過了圖靈測試。當然該人工智慧的成功引起了不小的爭議。它的設定是一個出生在烏克蘭的13歲男孩。兩個屬性讓「他」佔盡人類評委的便宜:一方面是他的孩子身份,另一方面,他的母語非英語。這無形中為降低了測試難度。如果他答非所問,人類評委會可能會認為,這是因為他還小或者英語不好造成的。即便如此,這一突破也具有裡程碑意義,它預示著人工智慧以成年人、母語身份通過圖靈測試指日可待。電影《她》(Her, 2013)以非常直觀的方式呈現了一種情況:人和作業系統(人工智慧)之間進行語言交流,進而產生了深入的情感依賴關係。
由於圖靈測試已經被打破,一旦未來有強人工智慧甚至超級智能出現,我們是否有一個具有可操作性的方法,來分別人類和人工智慧。我們甚至可以假想,如果人工智慧假裝或者故意不通過圖靈測試,人類可當如何應對?電影《機械姬》(Ex Machina, 2015)則用科幻的方式提出了一種令人擔憂的場景——人工智慧欺騙人類,逃脫禁錮。
機器人三法則的問題對人工智慧的警惕和預防,可以追溯到伊薩克·阿西莫夫提出的「機器人三法則」(Three Laws of Robotics):
第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀.
第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾。
第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。
有必要指出的是,英語中的Law這個詞具有兩種截然不同的含義:第一種是人類社會中的法律和道德律令。其目的是規範一個政治共同體中成員的基本權利與義務,甚至還要定義犯罪行為,並通過相應程序和機構對之進行審判和懲戒;第二種含義是自然(科學)中的法則和定律。例如牛頓力學中的三大定律,它通常是用數學符號的方式來表達的。上述這兩種涵義之間存在根本的不同——後者對人來說是無法違反的,而前者在原則上是可以違反的,因為人類認為擁有基本的形上學自由,即自由意志。或者說,原則上不可違反的法律(則)是沒有必要制訂的,只需要被發現和表達出來。因此,阿西莫夫的三條原則,屬於前者的範疇,類似於倫理與法律,而不是自然法則和定律。其初衷是防止機器人或未來的強人工智慧(乃至超級智能)危害人類。
有意思的是,阿西莫夫使用了不得(may not)和必須(must)這樣的語詞,非常類似神學中的「神命」(divine command)——摩西十誡那樣由上帝頒布給人的誡命。但是正如人類經常忤逆神的誡命一樣,人工智慧為何一定要遵守這些命令呢?如果沒有技術的落實和保障,這一切都僅僅是人類的一廂情願而已——「造物主」也會遇到煩惱,被造物並非那麼乖巧順從。
人類在創造和製造機器人和人工智慧時,是帶有特定目的的,例如希望它們能夠代替人類完成某些甚至全部的工作,其中一些工作必然帶有危害和風險。因此,從語義層面上來看,阿西莫夫的三大法則還有非常多語焉不詳的地方:以第一條為例,它並未明確定義「人類」和「傷害」。我們可以設想,未來工程師設計了一種執行護士職能的機器人,它要給病患打針。打針這個行動是「傷害」嗎?按照我們通常的理解,打針這個行動顯然要刺穿人的皮膚,並造成微量的出血。不過人類的一般常識告訴我們,這種輕微的傷害可以治癒病患的疾病,並且得到了病患的認可。在疾病和打針之間,如果不是出於特定的信仰考慮,一般理智正常的成年人經過權衡比較都會選擇接受打針。但是要讓人工智慧進行這樣的權衡比較,需要極為豐富的常識(common sense)。還有,如果阿西莫夫的第一條原則成立,那麼機器人和人工智慧都不得被用於執法和軍事作戰領域中,因為在這兩個領域中,直接需要傷害特定的人,例如暴力犯罪分子和敵國的作戰軍人。但顯然根據我們的歷史經驗,最新科技往往首先被運用在軍事領域中。人類自身能夠堅守阿西莫夫的第一條法則嗎?
第二條法則中語義存在的漏洞是「服從命令」(obey orders)這個詞。服從命令可以有兩種情況,第一種是服從預先制訂的規則和程序,例如人工智慧系統中的預存命令;第二種是人在當下環境中發出的即時指令。為了不讓人工智慧陷入兩難——成為布呂丹的蠢驢(Buridan's ass)——其前提是人類預先制訂的規則和即時指令之間不存在矛盾或衝突。或者說,當人類的命令出現矛盾時,人工智慧必須有標準來判定依照哪一個命令來行事。例如為了防止犯罪分子利用人工智慧,需要讓預設命令的優先度高於即時指令。其次的問題是,服從誰。阿西莫夫使用了「人類」(human beings)。服從一個特定的人(例如「我」),和服從(複數形式的)人類之間存在明顯差異。如何讓人工智慧定義和識別「人類」成為了關鍵問題。
第三條法則的核心詞是「自己」(its own existence)。要明白這一表述的意指,是否需要「自我」(self)的觀念,而產生這一觀念的前提是人工智慧具備自指(self-referential)能力。
針對機器人三大法則存在的問題,阿西莫夫本人後來增加了更有優先性的「第零法則」——機器人必須保護人類的整體利益不受傷害。這是一個類似於邊沁功利主義的原則,即保證機器人追求人類共同體整體的最大福祉。問題在於,如何定義「整體利益不受傷害」?這會面臨傳統功利主義的難題。例如從宏觀來看,目前地球上有70億人口,我們可不可以為了70億整體人類消滅當中的30億呢?從微觀方面講,我們可不可以殺死一個健康的人,把他的器官拿出來給那些等待急需器官移植的人?這樣殺死一個人可以拯救七到八個人,是否符合所謂「人類的整體利益」?按照人類常識和良知,顯然是不可以這麼做的。因為除了人類的整體利益之外,還有許多需要考慮的問題,每個人的個體利益也必須受到尊重和保護。
「中文屋」、意向性與符號接地如何讓人工智慧「遵守」規則涉及一個更深層級的問題,即它在什麼意義上「理解」規則。這個問題涉及著名的「中文屋」(Chinese Room)思想實驗。它是由美國哲學家、加州伯克利大學教授約翰·塞爾(John Searle)在《心靈、大腦和程序》(」Minds, Brains, and Programs」, in: The Behavioral and Brain Sciences, 1980)中提出的。所謂「中文屋」,就是要求你想像一位只說英語的人身處一個封閉的房間中,房間裡有一些中英文互譯的工具書。然後寫著中文的紙片通過小窗口被送入房間中,房間中的人可以使用工具書來翻譯這些文字並用中文回復。雖然他完全不懂中文,但通過這個過程,房間裡的人可以讓房間外的人以為他會說流利的中文。
塞爾以此來說明,將機器等同於心靈的強人工智慧是無法實現的,而僅作為工具的弱人工智慧是可能的。他認為:「只有一種機器可以思維,……即大腦和那些與大腦具有相同因果能力的機器。」但對於「中文屋」思想實驗的質疑與反駁同樣也從未斷絕。比如有人提出,屋中人和屋子以及所有工具書一起構成一個系統。屋中的人雖然不懂中文,但這個系統是懂得中文的。
塞爾的中文屋思想實驗的核心問題,後來在人工智慧研究中被稱為「符號接地問題(symbol grounding problem)」。一般而言,至今為止機器只會處理符號和符號之間的聯繫和關聯。然而,人們無法接受的是,符號「僅通過它們與其他符號的關係就變得有意義」。(勞倫斯·夏皮羅著:《具身認知》。華夏出版社,2014年,第107頁。)例如,如果我們修改了電腦中一個文件的文件名,電腦就很難找到這個文件。但如果打開文檔,對人類而言其內容和意義並沒有發生變化。人們相信,人能夠理解符號的意義乃至認識到事物的同一性,是因為人的思維具有某種指向性(Aboutness/ directedness)。哲學史上,弗朗茨·布倫塔諾(Franz Brentano, 1838–1917)借用了中世紀經院哲學概念,將心靈這種特性稱為「意向性」(intentionality),即人類的思維活動總是指向某物。因此意向性也被認為是「心靈的標誌」。
因此問題轉化為,如果要讓人工智慧要真正「理解」意義,是否也需要符號和對象之間的「意向性」呢?倘若不需要或不可能建立這種意向性,那麼將通過什麼方式來建立符號和對象之間的關係?
人類「心魔」與溫柔「統治」事實上,在我們如今的生活中,已經可以看到非常多弱人工智慧的運用。從機場安檢的人臉識別系統,到現如今具有高度準確性的谷歌翻譯;從特斯拉和谷歌的自動駕駛汽車,到美國軍方現在的制式裝備——X-47B無人機。人工智慧似乎正在以不可阻擋的趨勢,滲透進入我們生活的方方面面。這勢必將引起人類社會中的法律與倫理問題,人類對於技術「失控」的擔憂從未停止。
例如,人工智慧在股票交易中的運用——高頻交易(high-frequency trading),已經在2010年5月6日造成了道瓊工業指數的「閃電崩盤」。如何加強這方面的監管已經成為全球資本市場的一個難題。又比如,今年初出現了全球首例自動給駕駛汽車的致死案例。那麼未來也會出現這樣的緊急避險難題:當自動駕駛的人工智慧在遇到緊急情況時,是優先考慮保護車內乘客,還是選擇優先防止傷害道路上的步行者?再比如,如果神經機器翻譯(GNMT)在絕大多數情況下可以替代人類翻譯,或者其成本遠遠低於人類翻譯時,翻譯作為一個職業是否會消失呢?
人類之所以要創造人工智慧,本來是為了滿足人的某些基本欲求。其中一些可能的失控情況,本質上是人類自身欲望失控的表現和延續。如果人工智慧介入了家庭的私人領域,它會對人類的生活-生存方式造成這樣的影響?英國連續劇《真實的人類》(Humans, 2015)直接提出了這一問題:人工陪伴(Artificial companion)將徹底顛覆人類傳統的家庭結構。反過來,如果人類認為人工智慧也具有情感、智能和記憶,是否不能僅僅將之視為物品,而要賦予它們某些類似人類的基本權利呢?甚至未來人類也可能面臨「舉證倒置」的窘境,即人要自證不是人工智慧。這又如何可能做到呢?
不少科幻小說與影視劇中所表現的人工智慧,最後反客為主統治了全人類。但這裡有兩個老套的設想:首先,人工智慧為什麼一定要按照人的形狀出現呢?這裡面隱藏了一個人類自我中心的認識,所以才會一直以人為模本,來類比想像未來的人工智慧。人類之所以長成現在的樣子,是幾千上萬年進化的結果;而人工智慧完全可以以一套非人類的面貌出現;其次,在科幻電影中往往擔心人工智慧發展到某一天會對人類實行暴力統治。但完全存在另一種可能,即人工智慧以極其溫柔的方式進行統治,讓人處在非常舒適的處境中,覺察不到這是一種統治,進而渾渾噩噩、醉生夢死。又或者,人類未來會以「超人類」(trans-humanism)的方式存在,還是以「賽博智人」(homo cyber-sapien)的雲端形態存在呢?
與其說人工智慧的技術風險引發了人類的擔憂,還不如說人類的「心魔」更要引起自身的警惕。在日益發展的人工智慧面前,人應當反身自問,究竟什麼才是人——人之所以異於AI者幾希?
(本文在2016年10月30日上海建投書局「JIC講堂」第四期的講座內容基礎上有所修改和增補,原標題為《人工智慧的倫理風險及其哲學反思》。)
(本文來自澎湃新聞,更多原創資訊請下載「澎湃新聞」APP)