近年來人工智慧與產業端的對撞,使其變得越來越務實。此時回憶起2016年被阿爾法狗碾壓的恐懼,恐怕大多數人都會露出「想太多」的微笑。
但偶爾地,我們也可以從實用主義中短暫地抽離一下,來探討一些「務虛」的命題。比如思考一下,「如果機器有思維」,會發生哪些變化。
機器是否擁有思維,一直是科學界和哲學界都很關注的命題。
計算機理論的先驅圖靈就認為,機器可以思考。在著名的圖靈實驗中,只要測試者分不清問題的回答是人給出的,還是機器給出的,就說明機器和人的理解能力是沒有區別的。
當然,這一觀點在人工智慧發展的數十年,屢屢受到反駁。其中最著名的就是「中文屋實驗」。
1980年,美國哲學家約翰 · 賽爾(John Searle)在《心靈、大腦與程序》這篇論文中,提出「中文屋論證」思想實驗,認為機器不可能真正達到人那樣的自主意識,即使它通過了圖靈測試。
圖靈與賽爾,到底誰的觀點才預言了人工智慧的終極未來呢?
探尋思想:洞察機器智能的靈性之窗
首先,有必要先解釋一下,今天我們探討機器人是否能具備思維,到底有何意義?
當然,並不是為了預測《西部世界》到底會不會真實上演。
一方面,伴隨著人工智慧的廣泛落地,「智能」「智慧」等詞語已經成為了絕大多數人生活中的一部分。今天,我們談起智慧城市、智慧型手機、智能家電等如數家珍,但何種機器能力的表現可以稱之為「智能」,現有的城市與雲端的城市之間正在被技術劃分成不同的疆域。
舉個例子,「中華酷聯」時代的智慧型手機與今天「華米OV」推出的智慧型手機,儘管擁有著同樣的名字,但在功能、內涵上早已潛移默化的方式發生了變化。「名不正則言不順」,想要讓AI接下來能夠更合理、廣泛地發展,讓更多普通人為即將出現的智能大爆炸做好認知上的準備,那麼適當、準確、哲學層面的概念定義,就成了必要前提。
此外,算法的精進、算力的突破,以及各種關聯技術的興起,為人工智慧的爆發奠定了基礎。但需要注意的是,AI在技術層面依然存在許多不足之處。
其中最為人所遺憾的,就是目前仍處於「弱人工智」階段,也就是AI只能在功能層面模擬一些人類的智慧行為,但不具備泛化、思考、認知等高級智能,這也大大限制了其應用場景。
舉個例子,一個被訓練為識別蘋果好壞的機器,就無法再認識其他物種了,除非重新進行訓練。
當然,「形似神難」的困擾很早就為研究者所重視,在眾多難題之中最核心的,就是人工智慧是否具備獲取語義,即理解能力。
簡單來說,就是再聰明的狗,也只能根據主人的「命令」做出對應的動作,而並不是因為它理解了主人語言中每一個詞的意思。當狗具有思維會怎麼樣?科幻動畫《瑞克和莫蒂》中能統治星球的賽博小狗了解一下。
從理解符號到理解意義,思維能力的引入,有可能讓AI擺脫當下的技術困境,向真正的強人工智慧進發。
機器的意識:中文屋在拷問什麼?
既然機器是否具有意識,決定了機器智能的潛能是否充分發揮,那麼對其表示質疑的「中文屋論證」到底在拷問什麼?
這個思維實驗,簡單來說,就是讓一個只會英語的人接收全部由中文寫成的紙條,同時給他一本中文翻譯程序,以及充足的稿紙和筆,最終他能夠自己把紙條上的文字翻譯成英文,再將自己的答案翻譯成中文送出去。
這種情況下,屋內的人能夠對中文問題對答如流,但他同時也對中文一竅不通。
那麼,按照同樣邏輯創造出的機器,到底算得上知識淵博,抑或僅僅是一個「工具人」呢?
儘管今天的AI已經遠比賽爾提出「中文屋論證」的年代要強上不少,但這一哲學命題始終都在拷問著人工智慧。
對其的不同理解,也造就了技術發展中的兩個主要流派:
第一種,則是模擬人腦神經網絡的聯結主義。它將神經網絡引入數學建模之中,建立一個模擬人腦運轉方式的人工智慧範式,即我們今天熟悉的「深度學習網絡」,由此賦予機器一定的認知能力,比如輸入幾千貓的圖片,機器就能自己學會認識「貓」這一物體。但這是否意味著它懂得了「貓是什麼」呢?
按照圖靈測試,機器能夠自主使得對象,給出以假亂真的答案,那麼它就是有意識的,這個輸入和輸出的過程就是心理狀態。
但是按照「中文屋論證」,儘管看到任何對應物體都能夠無誤地反映出來,它只是獲得了「認識」這一能力,卻沒有理解自己看到的「對象」。
美國科學家哲學家H·希拉蕊·普特南就曾在1981年提出過一個類似的「機器邪典」,他設想了一個存活在營養缽中的大腦,科學家可以通過計算機產生電子脈衝來控制大腦感官,讓大腦對自身的處境一無所知。這個「缽中之腦」(Brain in a vat)被證明是自相矛盾的,根本無法成立,也從另一個角度說明了靠電子信號獲得意識並不可行。
那麼,有幸被「中文屋論證」蓋章「智能」的表現到底是何樣子呢?
這就要提到人工智慧的另一大流派——行為主義。
行為主義人工智慧強調「感知——行動」的反應模式,即機器可以從自己身處的環境中感知並學習,然後付諸行動,這種與外界互動、獨立思考並解決問題的能力,才是「中文屋」眼中的「智能」。
換句話說,機器智能應該通過遺傳算法自己進化出大腦,能夠建立起與大腦相同的因果能力。這樣的強人工智慧(Strong Artificial Intelligence),才是「中文屋實驗」認可的智慧級別。
這也成了當下AI發展過程中一個矛盾的現狀——當機器可以寫出比人類更通順優美的詩歌和文章,但如果它並不擁有意識,那麼該如何看待這些「麼得靈魂」的作品;如果它擁有了意識,一分鐘能寫出數百篇傳世佳作,人類作者又能如何與之賽跑?
等待AI或人類來回答的三個問題
面對上述困境,接下來也是時候來抽絲剝繭,探尋一下AI發展或者說人類在智能社會中所需要一一面對的現實問題?
第一,要弄明白機器與意識的關係,首先要搞清楚機器解決語義問題的邏輯。
因為人類判斷機器是否具備「思維」,最核心的考察點之一就是其是否能夠對語彙中的「意義」「意向性」等產生解釋能力。
過去,我們在自然語言處理領域見到的大多是符號主義、聯結主義層面的「智能」,比如高精準的語言識別、語言合成、問答系統、信息檢索等等。基本都處在以「表達」為主的輸出階段。
每出現一個以「理解」為主的輸出型突破,都會「技驚四座」,比如OPENAI的GPT-2,就因為具備小學三年級的閱讀理解能力而被看看做是突破性的進展。
換句話說,機器不但要理解語義,還要以和人類相同的方式、以可解釋的形式來實現的。
用業界的話來說,「人工智慧如果不能使用自然語言作為其知識表示的基礎,人工智慧也就永遠實現不了跨越的夢想。」
以當下計算機器對自然語言的運用和表達水平來看,顯然還有很長的一段路要走。
其次,科學界對AI的定義多種多樣,究竟多少比例的「智能」是恰如其分的。
當下,幾乎人工智慧各個領域的研究者和引用者,都試圖通過自己的角度去「還原」出人工智慧的「原貌」。但很顯然,就像人類的心肝脾肺腎並不需要具備大腦的思考能力一樣,不是所有系統都能夠、且必須擁有認知能力,比如說工廠流水線上的校準機械臂,它只需要不斷地提高精準度和靈敏度就可以了。
以絕大多數人的習慣,總是渴望一種簡單、統一的概念來認知事物。在這種情況下,普通人也會產生一種認知混亂,許多被賦予的智能可能只是一種修辭或概念,比如由人工控制的機器人就不被認為是智能機器的一種,首個「機器人公民」索菲亞就被業界鄙視為「造假」。
如何在法律、商業、社會層面去嚴謹地定義「智能」本身,目前還是一個相對模糊的哲學領域。
第三,普通人怎樣理解自身和人工智慧的關係?
如果AI不具備意識,強人工智慧沒有到來的一天,在這種人與機器涇渭分明的共存中,接受與人類能力存在明顯分野的機器智能,似乎並不是一件難事。圖靈也表示,「既不希望貶低不能在選美競賽中有出色表現的機器,也不希望貶低同飛機賽跑失敗的人。」
而如果人工智慧最終還是將獲得意識,那麼如同《西部世界》中德洛麗絲那樣自我覺醒並擺脫和反制人類,也是早晚的事。人類不得不考慮在未來的某天,需要與機器一較高下,這種未知會令人在恐懼和盲從之間搖擺不定,甚至影響到技術進度本身。
比如歷史上人工智慧的兩次寒冬,幾乎都是在技術能力不達預期的前提下而被廢止的。
可以想見,人工智慧在接下來的數年中,其進步並不取決於技術的突破,更需要觀念的更迭作為前提。
正如弗洛裡迪在《什麼是信息哲學?》中所說的那樣,「人工智慧就像特洛伊木馬, 把一種更具包容性的計算/信息的範式引入哲學的城堡。」圍繞在木馬身邊的民眾,終有一天會向研究者們發出質問,要求他們給出新的解釋。
而將近半個世紀過去了,AI還被困在「中文屋」當中……