【文/觀察者網專欄作者 徐英瑾】
導論
在很多人看來,「人工智慧」(Artificial Intelligence,簡稱AI)是一個工程技術色彩濃鬱的學術領域,哲學研究則高度思辨化和抽象化,二者之間應當是風馬牛不相及的。但這實際上是一種誤解。芝加哥大學哲學教授郝格蘭(John Haugeland)著作《人工智慧概念探微》(Artificial Intelligence: The Very Idea)(特別是第一章),以及加州大學伯克利分校的哲學教授德雷福斯(Hubert Dreyfus)的著作《計算機依然不能做什麼》(What Computers still Can’t Do: A Critique of Artificial Reason),都留出了一定的篇幅,用以挖掘AI的設想在西方哲學史中的根苗。而英國女哲學家兼心理學家博登的浩瀚巨著《作為機器的心靈——認知科學史》, 則以更大的篇幅討論了AI科學和整個西方科技史、思想史之間的互動關係。
不過,令人遺憾的是,在漢語哲學界,將西方哲學史的視角和AI哲學的視角相結合的研究成果,相對還比較罕見,因此拙文將在這個方向上作出一番小小的開拓性努力。另外,筆者也希望能夠通過這種「架橋」工作,幫助讀者看到那些看似新銳的科技問題和相對古老的哲學爭議之間的密切關聯,並為緩解目前在漢語學界業已過於緊張的「科學-人文」關係,獻上綿薄之力。
為了能夠集中討論,本文將只選取西方哲學史中的一個片段——十七、十八世紀歐洲哲學為參考系,來討論哲學和AI之間的關係。
由於篇幅限制,在下面我們只能選擇五位哲學家予以概要式的討論:笛卡爾(Rene Descartes, 1596—1650)、萊布尼茨(Gottfriend wilhelm von Leibniz, 1646—1716)、霍布斯(Thomas Hobbes, 1588—1679)、休謨(David Hume, 1711—1776)和康德(Immanuel Kant, 1724—1804)。他們可被編為三組:
第一組:笛卡爾和萊布尼茨。其特點是:他們通過卓越的哲學想像力,明白地預報了後世AI科學家通過被編程的機械來實現智能的設想。但他們又同樣明確地提出了反對機器智能的論證。從這種意義上說,他們雖不可能為今日符號AI的技術路線投贊成票,卻明確地表述出了「人工智慧哲學」的基本問題意識:製造人類水平的智能機器,是不是先天可能的?
第二組:霍布斯。他處在笛卡爾和萊布尼茨的對立面。具體而言,他雖沒有明確地提到機器智能的可實現性問題,但是他對於人類思維本性的斷言,卻在邏輯上等價於一個弱化的「物理符號假設」。因此,他可被視為二十世紀的符號AI路線在近代哲學中的先祖。
第三組:休謨和康德。從現有文獻來看,他們並未明確討論過「機器智能的可實現問題」。然而,他們各自的心智理論卻在一個更具體的層次上引導了後世AI專家的技術思路,因此也算作是AI科學的先驅。
在所有的這些哲學家中,我會留給康德最多的篇幅,因為他的思想最為深刻,可供AI挖掘的材料也最多,儘管認識到這一點的只有侯世達(Hofstadter)等少數AI專家。
笛卡爾和萊布尼茨:機器智能的反對者
從表面上看來,與下文所要提到的霍布斯相比,笛卡爾和萊布尼茨似乎更有資格充當符號AI(也就是經典AI)在近代哲學中的先驅。擺得上桌面的理由有:
其一,此二君都屬於廣義上的「唯理派」陣營,都主張人的心智活動的實質在於符號表徵層面上的推理活動(為了宣揚這個觀點,萊布尼茨還專門寫了一本《人類理智新論》,和經驗論者洛克打起了筆仗);
其二,符號AI路數一般都重視數理研究和一般意義上的科學研究,而笛、萊兩人的學術造詣也都體現了這樣的特徵。具體而言,笛卡爾是直角坐標系的發明人,在物理學(特別是光學)領域小有斬獲,也喜歡搞生理學。萊布尼茨則是微積分的發明人之一,是柏林科學院的創始人;
其三,與人工智慧直接相關的一些計算機技術,和萊布尼茨有直接關聯。他在1764年於巴黎建造的乘法運算機(改進於帕斯卡的運算機),以及他對於二進位的推崇,都是為計算機史家所津津樂道的實例。
然而,筆者卻並不認為這些理由能夠充分地擔保他們會贊同機器智能的可能性。
首先,成為計算機技術的先驅並不等於成為人工智慧的先驅。一個計算機科學家完全可能拒絕實現人類水平上的機器智能的可能性,而僅僅把計算機視為人類的工具。因此,萊布尼茨對於帕斯卡運算機的改進,並不擔保他會成為AI的同道;
其次,他們在數學和自然科學方面的貢獻,也並不擔保他們會贊成機器智能的可實現性(理由由上一點類推);
第三,是否贊同符號AI,和是否處在「唯理派」陣營中,並無直接關聯。這是因為,唯理派的立場僅僅是「心智活動的實質在於符號表徵層面上的推理活動」,但對於符號AI來說,更為有用的一個論題則是「任何被恰當編程的、符號表徵層面上的推理活動都是心智活動」。很顯然,從邏輯上看,即使已經有了前面這個立場,也並不擔保後一個論題就能夠被推出。
進而言之,笛卡爾和萊布尼茨還各自提出了一個論證,明確反對機器智能的可能性。
先從笛卡爾說起。我們知道,在「身心關係」問題上笛卡爾是二元論者,即認為人是佔據廣延的物質實體和不佔據廣延的靈魂實體的複合體。而在關於動物的本性的問題上,他倒是一個比較徹底的機械唯物論者,即認定動物只是「自動機」,毫無靈魂。
從這個立場出發,他顯然是不可能認為我們有可能製造出具有人類智能水平的機械裝置的,因為從他的二元論立場來看,「智能」——或者說「靈魂」——的形式,和物理世界的配置形式無關,通過改變後者,我們是不可能得到前者的。不過,這樣的一種反機器智能的論證本身就已經預設了二元論立場,因此非二元論者未必會買他的帳。好在笛卡爾還有一個形上學負荷更少的反機器智能論證。此論證見於其名著《方法論》:
笛卡爾的這個論證其實可以分為兩個部分。第一部分的要點是:從「機器能夠表達語詞」出發,我們推不出「機器能夠根據環境的變化而調整語義輸出策略」,而後者則被笛卡爾視為「真正智能存在」的充分必要條件。我認為這個論證比較弱,因為是否能夠根據環境的變化調整語義輸出策略,乃是一個程度性的概念,而不是一個非黑即白的概念。
在今天的AI界,能夠根據環境的變化而有限調整語義輸出策略的程序,並不是做不出來,在這個問題上笛卡爾的確太低估後世AI工程師的能力了。
1637年「近代哲學之父」笛卡爾發表了名作《方法論》,「我思故我在」(Cogito ergo sum)即誕生於此
若按照笛卡爾的標準,這些程序的問世顯然就意味著機器智能的實現——但直覺卻告訴我們,這些程序的表現依然和真人智能行為大有差距。由此看來,在第一個論證中,笛卡爾關於「真正智能」的標準設置過低,這就使得他關於機器智能之不可能性的論斷很容易被反例所駁倒。
笛卡爾第二個論證的要點是:如果我們真的要做出一臺「智能」機器,我們就需要把所有的問題解決策略預存在其內置方法庫中,但在實踐上這是不可能的。和前一個論證相比,我認為這個論證質量高得多,因為笛卡爾在此已經預見到了符號AI的核心思路——在機器中預置一個巨大的方法庫,並設計一套在不同情境下運用不同方法的調用程序——儘管符號AI的正式出現(1956年)是笛卡爾的《方法論》出版(1637年)三百多年之後的事情了。
另外,笛卡爾在此也天才地預見到了,真正的智能將體現為一種「通用問題求解能力」,而不是特定的問題求解能力的一個事後綜合。這種通用能力的根本特徵就在於:它具有面對不同問題語境而不斷改變自身的可塑性、具有極強的學習能力和更新能力,等等。這種「智能」觀,也比較符合我們一般人的直覺。
但笛卡爾的問題卻在於,他認為這種「通用問題求解能力」是人類所獨有的。但相關論證呢?很顯然,從「所有可被我們設想的機械不具有通用問題求解能力」這個前提出發,我們是得不出笛卡爾所欲求的如下結論的:所有機械都不具有通用問題求解能力。前提和結論之間的跳躍性在於,哲學家關於機械製造可能性的設想很可能是有局限的,甚或會充溢著培根所說的「四假相」。在這裡,笛卡爾顯然對自己的想像力過於自信了。
不過,自信歸自信,他對人類理性和機器智能之間差異的提示,的確也算是一條攻擊機器智能可能性的思路。在二十世紀,該路數最重要的後繼者乃是美國哲學家德雷福斯,儘管他本人並不是一個笛卡爾式的唯理派哲學家,而是一位現象學家。
再來看萊布尼茨。從萊布尼茨的整個形上學背景來看,他對於機器智能的牴觸其實應當比笛卡爾還大。笛卡爾畢竟還是半吊子的機械唯物主義者,可萊布尼茨的「單子論」卻是徹徹底底反唯物主義的。在他看來,構成世界的最終實體,乃是一些缺乏廣延、形狀和可分性的精神性單子,而物質世界所賴以存在的空間關係乃是通過諸單子的彼此知覺而產生的。站在這個立場上看,「通過機械的空間配置來產生智能」這種說法,自然就完全無法和萊布尼茨的整個哲學立場相容了。不過,和笛卡爾一樣,萊布尼茨也提出了一個不那麼依賴其形上學預設的反機器智能論證(簡稱為「磨坊論證」):
我們前面剛提到,在笛卡爾看來,外部行為和人類一樣具有靈活性和變通性的推理機器是造不出來的。和他的論證策略不同,萊布尼茨則玩弄了一把「欲擒故縱」的把戲,即預先假定我們已經造出了這樣的一臺機器。而他的論證要點則是:即使該假定本身是真的,從中我們也推不出真正的智能的存在。因為在萊布尼茨看來,真正的智能需要知覺的介入,而在機械運作的任何一個層面,我們都看不到這樣的知覺的存在。所以,即使一臺機器所表達出來的「輸入—輸出關係」和人的「輸入—輸出關係」完全吻合,前者依然不能算作真有智能的。
萊布尼茨——現代「計算機科學」的先驅
但筆者認為這個論證有很大的問題。我們姑且可以同意萊布尼茨的前提,即「知覺的存在對於智能的存在來說是不可或缺的」。但是,僅僅通過對於智能機械的內部觀察,我們又如何確定知覺是否存在於這臺機器中?知覺本身——而不是伴隨著知覺的外部物理運作——畢竟不是掉在地上的懷表和掛在牆上的背包,是可以在第三人稱立場上被經驗地觀察到的。換言之,從「我們觀察不到知覺的存在」,我們實在推不出那個對萊布尼茨有用的結論:知覺本身不存在。
按照他的標準,我們甚至不能說人類也是有智能的,比如,我們不妨設想把萊布尼茨本人的大腦放大到上海世博園區那麼大,並同時保持其中各個部件之間的比例關係不變。我們若進入這個超級大腦,看到的恐怕也只會是一些純粹的生物化學反應,而觀察不到知覺。然而,由此我們就能夠推出萊布尼茨的大腦沒有知覺,沒有靈魂嗎?這顯然是荒謬的。
儘管這個論證很荒謬,但它卻直接引導了後世的塞爾提出了反對機器智能的「漢字屋論證」,因此也是具有一定的思想史地位的。
霍布斯:符號AI之真正哲學前驅
霍布斯是近代唯物主義哲學家的代表人物之一,但這並不是他在這裡被我們提到的首要原因。這是因為,儘管AI的理想(即製造出某種智能機器)必然會預設某種版本的唯物主義,但反過來說,從唯物主義的哲學立場中我們卻未必能夠推出AI的理想。說得更清楚一點,一種關於AI的唯物主義必須得滿足這樣的條件:它除了泛泛地斷定心理層面上的人類智能行為在實質上都是一些生物學層面上的物理運作之外,還必須以某種更大的理論勇氣,去建立某種兼適於人和機器的智能理論,以便能指導我們把特定的智能行為翻譯為某些非生物性的機械運作。
在這方面,拉·美特裡(他可能是近代西方哲學史中最著名的唯物主義者)對於AI的價值恐怕就要小於霍布斯,因為前者關於「人(是)機器」(L'homme Machine)的主張,實質上並沒有直接承諾智能機器實現的可能性。毋寧說,拉·美特裡只是給出了一個關於人的生物屬性和心理屬性之間關係的局域性論題,其抽象程度要低於符號AI的基本哲學假設:被恰當編程的符號運算,就是真正智能活動的充分必要條件(我們簡稱此假設為「物理符號假設」,其提出者是AI專家司馬賀和紐厄爾)。
霍布斯就不同了。與迷戀醫學和解剖學的拉·美特裡不同,他更迷戀的是抽象的幾何學,並致力於給出一種關於人類思維的抽象描述。他在其名著《利維坦》中寫道:
儘管霍布斯並沒有可能了解後世AI專家所說的「物理符號系統」的技術細節,但從這段引文看,他已經很清楚地意識到了,看似複雜的人類的理性思維,實際上是可以被還原為「加」和「減」這兩個機械操作的。這個講法,在精神上和經典AI的思想是很接近的(而我們今天已經知道了,所謂的「加法」和「減法」,其實都可以通過一臺萬能圖靈機來加以模擬)。
不難想見,如果霍布斯是對的話,那麼「加」和「減」這樣的機械操作就成了理性存在的充分必要條件——也就是說,一方面,從加減的存在中我們就可以推出理性的存在,而在另一方面,從前者的不存在中我們也就可以推出後者的不存在(正如引文所言,「當有加減施加拳腳的地方,理性便有了容身之處,而在加減無所適從的地方,理性也就失去了容身之所」)。
託馬斯·霍布斯(圖)。儘管笛卡爾和霍布斯都可以粗略地被歸類於「機械唯物主義者」,但在人工智慧問題上二人的思想路徑並不相同
很明顯,如果我們承認這種普遍意義上的加減的實現機制不僅包含人腦,也包含一些人造機械,那麼他對於「理性存在」的充分必要條件的上述表達,也就等於承諾了機器智能的可能性。換言之,霍布斯的言論雖然沒有直接涉及人工智慧,但是把他的觀點納入到人工智慧的敘事系統之內,在邏輯上並無任何突兀之處。
另外,就「哪些知識領域存在有加減運作」這個問題,霍布斯也抱有一種異常開放的態度。根據上述引文,這個範圍不僅包括算術和幾何學,甚至也包括政治學和法律學。這也就是說,從自然科學到社會科學的廣闊領域,相關的理性推理活動竟然都依據著同一個機械模型!這幾乎就等於在預報後世AI專家設計「通用問題求解器」的思路了。也正鑑於此,哲學家郝格蘭才把霍布斯稱為「人工智慧之先祖」。
而考慮到他的具體建樹和符號AI更為相關,筆者更情願將其稱為「符號AI之先祖」。
但需要指出的是,符號AI的基本哲學預設——「物理符號假設」——只是在霍布斯那裡得到了一種弱化的表達,因為該假設原本涉及的是一般意義上的智能行為和底層的機械操作之間的關係,而霍布斯則只是提到了理性推理和這種機械操作之間的關係。換言之,他並沒有承諾理性以外的心智活動——如感知、想像、情緒、意志等——也是以加減等機械運作為其存在的充分必要條件的。而從文本證據上來看,在正式討論理性推理之前,《利維坦》對於「感覺」、「想像」、「想像的序列」等話題的討論,也並未直接牽涉到對於加減運作的討論。
那麼,如何把一種機械化的心靈觀從理性領域擴張到感性領域,並由此構建一種更為全面的、並對AI更有用的心智理論呢?這關鍵的一步是由休謨走出的。有意思的是,走出這一步,卻使得他和AI陣營中相對新潮的一派——聯結主義——攀上了親。
休謨:聯結主義的哲學前驅
在此筆者默認讀者已經具有了休謨哲學的背景知識,並將不再過多依賴他自己的哲學術語來重構他的思想。筆者下面的重構將主要依賴當代認知心理學的語言框架。
從認知心理學的視角來看,休謨的心智理論的基本思想是:一種更為全面的心智理論應當彌補前符號表徵層面和符號表徵層面之間的鴻溝,否則就會失去應有的統一性(而缺乏這種統一性,恰恰就是霍布斯的心智理論的毛病)。而他採取的具體「填溝」策略則是還原論式的,即設法把符號表徵系統地還原為前符號的感覺原子。在《人性論》中,這些感覺原子被他稱為「印象」,而符號表徵則被稱為「觀念」。
更具體地說,他實際上是把整個心智的信息加工過程看成是一個「自下而上」的進路:
第一,人類的感官接受物理刺激,產生感覺印象。它們不具有表徵功能,其強度和活躍度是物理刺激自身強度的一個函數(不過休謨不想詳細討論這個過程,因為他覺得這更是一個生理學的題目,而不是他所關心的心理哲學的題目)。
第二,感覺印象的每一個個例(token)被一一輸入心智機器,而心智機器的第一個核心機制也就隨之開始運作了,這就是抽象和記憶。記憶使得印象的原始輸入得以在心智機器的後續運作中被妥善保存,而要做到這一點,記憶機制就首先需要對印象的個例加以抽象,以減少系統的信息儲存空間,並以此提高系統的工作效率。這種抽象的產物乃是「感覺觀念」。它們具有表徵功能,其表徵對象就是相應的印象個例。在這個抽象形式中,每一個原始個例的特徵都被平均化了,而其原有的活躍程度則被削弱。
第三,每一個感覺觀念本身則通過第二個心智核心機制——想像力——的作用,得到更深入的加工。想像力的基本操作是對感覺觀念加以組合和分解(類似於霍布斯所說的加減運算),而這些組合或分解活動所遵循的基本規律則是統計學性質的,也就是說,觀念A和觀念B(而不是A和C)之所以更有機會被聯想在一起,乃是因為根據系統所記錄的統計數據,A的個例和B的個例之間的聯接實例要多於A和C之間的聯接實例。
大衛·休謨。他的「懷疑論」讓他成為傳統認識論的終結者
由此一來,一個觀念表徵的所謂「含義」,在根底上就可被視為對原始輸入的物理性質的一種統計學抽象,而觀念表徵之間的聯繫,則可被視為對輸入之間實際聯繫的一種統計學抽象。當然,休謨本人並沒有使用筆者現在用的這些術語,他只是提到,A和B的聯接之所以被建立,乃是「習慣」使然——但這只是同一件事情的另一個說法。從技術角度看,一個模式之所以會成為習慣,就是因為該模式的個例在系統的操作歷史已經獲得了足夠的出現次數——或者說,關於x的「習慣」的強度,乃是關於x的個例的出現次數的函數。
但以上所說的這些,和AI又有何關係?
休謨並沒有直接討論人工智慧系統的可能性,也許他從來都沒有想過這個問題。不過,他對於人類心智模型的建構,卻非常契合於後世AI界關於聯結主義進路的討論。那什麼叫「聯結主義」呢?這是AI學界內部一個相對新穎的技術流派,從上世紀八十年代開始風靡。其核心思想是:若要建立一個專門用於「模式識別」的人工智慧系統,不必像經典的符號AI所建議的那樣,從上至下地構建出一個內置的方法庫和方法調用程序,而可以採納一個新的技術進路:用數學辦法建立起一個人工神經元網絡模型,讓該模型本身具有自主學習功能。這些人工神經元的底層計算活動本身並不具有符號表徵功能,而只有在對整個網絡的整體輸出做出一定的統計學抽象之後,我們才能夠將這個總結果映射到一個語義上。
今日的聯結主義進路和休謨的心智模型之間的共通處體現在二者都嚴厲拒絕了傳統的符號AI的一層重要意蘊:我們可以先把智能體的問題求解策略儘量完美地再現出來,然後再設法把這些理性反思的產物程序化,換言之,先有符號表徵描述,爾後才能夠有前表徵的底層運算。
很顯然,該想法本身就預設了:的確存在著一個為所有智能體的同類問題求解過程所共享的一般符號描述,而不同智能體實現這個抽象描述的不同運算過程,實際上只是同一輪月亮倒影在不同山川中的不同月影而已。但在休謨主義者和聯結主義者看來,那一輪月亮的實在性不是被給定的東西,而至多是被構造出來的東西。用休謨的話語框架來說,那些高高在上的符號(觀念),只不過就是前符號的感覺材料(印象)在心理學規則(特別是聯想機制)的作用下,所產生的心理輸出物而已。
考慮到智能系統本身的輸入歷史將決定性地影響其最後形成的符號體系的結構,兩個彼此不同的輸入歷史就必然會導致兩個不同的觀念表徵系統——這樣一來,不同智能系統在不同環境中所執行的不同的底層運作,就很難被映射到一個統一的符號層面上,並由此使得符號層獲得起碼的自主性和實在性。
與休謨相呼應,在後世的聯結主義模型建構者看來,人工神經元網絡的拓撲學構架在很大程度上也是在前符號表徵層面上運作的,而被輸出表徵的性質,則在根本上取決於整個網絡「收斂」之前訓練者所施加給它的原始輸入的性質。換言之,兩個識別任務相同但訓練歷史不同的人工神經元網絡的輸出結果,並不必然會(且往往不會)指向同一個語義對象。後者就像休謨眼中的「觀念」一樣,在整個人工神經元網絡構架中處於邊緣位置。
另外,休謨關於觀念之間聯繫產於「習慣」的觀點,也部分地吻合於聯結主義進路對於人工神經元節點間的聯繫權重的賦值方式,其細節筆者就不再加以贅述了。但由於科學視野的局限,休謨並沒有在神經科學的層面上重新理解心智對於前符號信息的加工過程;而他所給出的描述成果只是採用了模糊的哲學語言,沒有使用定量的數學模型。這些地方也都正是今日的聯結主義超越於休謨主義之處。
康德:「從上至下」進路和「自下而上」進路的整合者
稍有西方哲學史常識的讀者都知道,康德在《純粹理性批判》中提出了一套整合經驗論和唯理論的心智理論。關於他的這套整合策略,哲學史研究方面的文獻早已是汗牛充棟了。但如何跳出哲學史敘事的慣常視角,從AI的角度來重新解讀康德的這種整合策略呢?在這方面,美國AI科學家侯世達、澳大利亞哲學家查爾莫斯等人聯合撰寫的論文《高階知覺、表徵和類比——對於人工智慧方法論的批評》就頗有參考價值。文章起頭部分有一段評論直接和康德相關:
很早人們就知道知覺活動是在不同層面上進行的。伊曼紐爾·康德將心智的知覺活動劃分為兩個板塊:其一是感性能力,其任務是揀選出那些感官信息的原始輸入,其二是知性能力,其任務是致力於把這些輸入材料整理成一個融貫的、富有意義的世界經驗。康德並不對感性能力很有興趣,並將主要精力投向了知性能力。他孜孜以求,最終給出了一個關於高階認知的精細模型,並通過該模型將知性能力區分為十二個範疇。
從「獨斷論」的迷夢中驚醒的康德掀開了哲學史上的「哥白尼」革命,創立了「先驗哲學」的理論框架
儘管在今天看來,康德的這個模型多少顯得有點疊床架屋,但他的基本洞見依然有效。依據其洞見,我們可以將知覺過程視為一道光譜,並出於方便計,將其區分為兩個構成要素。大約和康德所說的感性能力相對應,我們劃分出了低階知覺。這主要指的是這樣一個過程:對從不同感官通道搜集來的信息進行早期處理。另外,我們還劃分出了高階知覺——通過這種知覺,主體獲得了對於上述信息的一種更為全局性的視角,並通過和概念的溝通而抽象出了原始材料的意義,最終在一個概念的層次上使得問題求解的情景具有意義。這些問題求解情景包含:對象識別、抽象關係把握,以及把某個具體環境辨識為一個整體。
從這段引文看,康德對於AI科學家的啟發就在於:知覺的「從上至下」進路(「知性」或「高階知覺」)和「自下而上」進路(「感性」或「低階知覺」)都是不可或缺的,因此一個更全面的人工認知模型將囊括這兩者。但這裡的問題是:憑什麼說兩者都不可或缺呢?或者說,僅僅遵從休謨式的「自下而上」思路,或者僅僅遵從霍布斯式的「從上至下」思路,為何就行不通?
康德本人對於這個問題的解答是:如果我們僅僅遵從「自下而上」的思路,我們就很難解釋,為何人類的心智僅僅憑藉經驗聯想,就能夠構成普適性的「先天綜合判斷」(回答不了這個問題,我們將陷入對於普遍性知識的懷疑論);如果我們僅僅遵從「從上至下」的思路,我們很難解釋,為何我們心智機器的最終輸出能夠和外部輸入發生關聯(回答不了這個問題,我們將陷入「觀念實在論」或「哲學獨斷論」)。不過,康德的這些解釋帶有過重的知識論氣味,而且還負載了很多哲學預設(比如,他預設「哲學懷疑論」和「哲學獨斷論」肯定都是錯的)。站在AI或者認知科學的立場上看,我們需要的,其實是一種哲學預設更少的對於整合式路徑的辯護方案。
侯世達等人的相關辯護方案則機智地繞開了「先天綜合判斷」這個麻煩話題,而以「類比」為切入點。他們的問題是:如果要在一個人工智慧系統裡實現「類比推理」的話,編程者的編程思路,到底要遵循「自下而上」的進路,還是「從上至下」的進路呢?或是二者的整合進路?
那麼,為何要以「類比」為切入點呢?這當然是因為類比推理對於提高智能系統的工作效率很重要。不難想見,一個智能系統若能夠在表徵A和表徵B之間建立起合適的類比關係的話,那麼只要系統已經預存了一套關於表徵B的問題求解策略C,那麼它就能夠用C來解決關於表徵A的新問題。系統由此獲得的問題求解效率,自然將大大高於其從頭搜索C的效率。類比推理的一般形式就是:
不過,要建立起這樣的一個類比關係,卻不是易事。請考慮對如下類比關係的建構過程:
類比一:孔明之於劉玄德,可類比於管仲之於齊桓公。
假設一個智能系統已經把握了「管仲」、「齊桓公」、「孔明」和「劉玄德」這四個表徵的含義(但下面我們將馬上提到,即使要滿足這個假設,也非易事。另外,關於什麼叫表徵的「含義」,我們暫且不表),但這不等於它很快就能夠建立起我們所欲求的這種類比關係。不難想見,系統的知識庫本文裡還存有很多別的表徵,比如「張飛」、「蔣幹」、「貂蟬」、「董卓」,等等。換言之,在建立「類比一」之前,系統實際上需要做一道選擇題:
孔明之於( ),可類比於管仲之於( )。
A.張飛、B.蔣幹、C.董卓、D.貂蟬、E.齊桓公……而面對這些雜亂無章的選擇項,系統完全也可能建立起錯誤的類比關係,比如:
類比二:孔明之於董卓,可類比於管仲之於貂蟬。
怎麼避免這一點呢?休謨主義者在面對這個問題時或許又會祭出「習慣」的法寶,也就是說,如果系統檢測到「孔明—劉玄德」關係和「管仲—齊桓公」關係有比較多的共現次數的話,那麼系統就會在「孔明—劉玄德」關係和「管仲—齊桓公」關係之間建立起一種更高階的類比關係。但這種統計學的策略有兩個根本缺陷:第一,很多對問題求解有用的新類比關係,往往是缺乏統計數據支持的(否則就談不上是新類比關係);第二,該策略對於系統輸入歷史的這種高度依賴性,將大大削弱系統對於輸入信息的主動鑑別能力。
比如,若系統恰好發現「貂蟬—董卓」關係和「管仲—齊桓公」關係有比較多的共現次數的話,那麼它就會隨波逐流地在這兩者之間建立起一種更高階的類比關係。但如此一來,系統又如何有機會對這種錯誤的建構做出主動修正呢?
面對同樣的問題,霍布斯主義者的表現或許會更為狼狽。霍布斯經典AI思想路線的要點就在於,整個認知系統必須在符號表徵的層面上運作,換言之,他們都默認了正確表徵的存在已然不成為問題。但在真實的「類比關係匹配」任務中,成為問題的往往就是如何找到正確的表徵形式。再以「孔明之於劉玄德,可類比於管仲之於齊桓公」為例。現在我們暫且遵循弗雷格以來的語言哲學傳統,把一個詞項的含義看成是把該詞項映射為一個外部對象的函數。
比如,「孔明」的含義,就是把該詞項映射為歷史上真實存在過的那個人的函數。這樣的映射方式肯定很多,比如你可以將「孔明」視為「劉禪的亞父」、「三國時蜀國的丞相」、「《隆中對》的作者」、「劉備最有名的文臣」,等等(其中的每一個都能夠把「孔明」映射到同一個對象上去)。而現在的問題就是,若要建立「孔明之於劉玄德,可類比於管仲之於齊桓公」這個類比關係,我們需要的又是其中怎樣的一種表徵形式呢?依據一般中國人的歷史常識來判斷,答案顯然就是「劉備最有名的文臣」,因為這樣我們就可以將其匹配於管仲的表徵形式「齊桓公最有名的文臣」,並在這種匹配的基礎上建立起我們所需要的類比關係。該匹配流程可示意如下:
但麻煩的是,我們又到底如何能在「劉備—孔明」關係屬性集以及「管仲—齊桓公」關係屬性集中,找到一個為兩集所共享的成員呢?很顯然,這個關鍵性的表徵形式並不會自動跳出來讓系統注意到自己。而要讓系統用野蠻搜索的方式來自上而下地逐一尋找它,則又顯得過於耗時。
因此,系統就需要用某種自動搜索程序來發現它。欲建立這種搜索程序,我們就得為系統設計出一個低層次人工知覺能力以模擬康德的「感性」能力,並由此迅速檢索與任務求解更為相關的表徵形式;同時,讓高層次的人工知覺能力(類似於康德的「知性」能力)實時地參與其中,構成高——低互動。換言之,無論是霍布斯—經典AI的道路,還是休謨—聯結主義的道路,都無法引導我們設計出能夠正確地建立起所需類比關係的系統。只有康德式的整合式策略,才是我們努力的方向。
總結
筆者希望本文的討論,能夠帶給讀者以下三點啟示。第一,看似新銳的「AI哲學」,其實並不是嶄新的東西,而的確和西方哲學史有著密切的聯繫。從抽象的角度看,哲學思辨切入人工智慧的方向主要有兩個:其一,機器智能的實現是否先天可能?其二,怎樣的心智理論才能夠為機器智能的實現提供更好的參照系?而從本文的哲學史梳理結果來看,笛卡爾、萊布尼茨等哲學家實際上已經超越了自己時代的科學發展的限制,明確提出了第一個問題,並給予了其以否定性的應答(不過本文的討論也已經表明了,他們的反機器智能的論證都是有問題的)。
而霍布斯則間接地肯定了機器智能的可能性。休謨和康德雖未正面談論該問題,但是他們各自提供的心智理論,卻分別構成了AI中的聯結主義進路和「上下整合」進路的哲學前驅,並由此為上述第二個問題提供了答案。從某種意義上說,今日在英美方興未艾的AI哲學,依然沒有從根底上跳出這兩個問題所規定的理路。由此看來,十七、十八世紀歐洲哲學家對於相關問題的前瞻能力,乃是令人驚異的。
第二,雖然經典的AI進路包含著對於數理模型的高度推崇,但同樣推崇數理描述方式的「唯理派」哲學家,卻往往對「機器智能」持有敵意。這是因為,對於「機器智能」的贊成不僅僅依賴於對於數理模型的推崇,而且還依賴於一種對於身心關係的唯物主義觀點。但由於種種文化、宗教因素,唯理派哲學家往往在身心關係問題上持反唯物主義立場。從這個角度看,近代唯理派和經典AI之間的親緣關係,並沒有一些論者(如德瑞福斯在其《計算機依然不能做什麼?》)所說的那麼強。
第三,作為十七、十八世紀歐洲哲學的集大成者,康德雖沒有直接討論過機器智能的可實現問題,但是他的心智理論對於AI的啟發意義卻依然不容小覷。此理論的要點就是把「從上至下」和「自下而上」的兩個認知進路加以打通,將其整合在一個更大的心智模型裡。筆者認為,這種整合式的進路要比單純的「自下而上」進路或「從上至下」進路更具有解釋力,因此應當是未來AI建模的一個主要參照模式。
但如何把這種哲學啟發轉化為更具體的編程工作,卻會面臨著一個巨大的理論—技術障礙,即如何把系統所在的非數理化的實際工作環境加以實時的數位化模擬(這種模擬必須由系統自己完成,而不能由程式設計師事先輸入)總之,更艱巨的任務還在等待AI專家們去完成。
本文系觀察者網獨家稿件,文章內容純屬作者個人觀點,不代表平臺觀點,未經授權,不得轉載,否則將追究法律責任。關注觀察者網微信guanchacn,每日閱讀趣味文章。