在昨天的推文中,我和大家分享了英特爾硬核晶片有了「嗅覺」,離複製人腦更進一步?這款晶片之所以厲害是因為具備了一定的「嗅覺」能力,可以根據生物信號來識別「嗅」到的氣味,這屬於強人工智慧必備的能力之一,也讓我們離複製大腦更進了一步。
但因為篇幅有限,文章中對人工智慧覺醒的引申,也就是人工智慧出現意識的情況只做了一個簡單的分析,但大家似乎對這個老生常談的問題依舊很感興趣,尤其是經歷了 2020 年這個艱難的開局,讓我們進一步意識到了人的脆弱和無力。
今天,我們就來詳細的討論一下具備意識的強人工智慧到底發展到了什麼程度,到底會有哪些風險,我們人類能不能和強人工智慧共存?
強人工智慧的概念與定義
1985 年 9 月 26 日,諾貝爾物理學獎得主,也被稱為愛因斯坦之後最睿智的理論物理學家,第一位提出納米概念的人 —— 理察·費曼(Richard Feynman)在一次講座中第一次提出了強人工智慧的概念。
一般而言,弱人工智慧不需要具有人類完整的認知能力,甚至是完全不具有人類所擁有的感官認知能力,只要設計得看起來像有智慧就可以了。
因此,過去我們所認知到的人工智慧大多是弱人工智慧,並且人們一度覺得強人工智慧是不可能實現的。
強人工智慧也稱通用人工智慧(artificial general intelligence,AGI),一般需要具備執行智慧行為的能力。強人工智慧通常把人工智慧和意識、感性、知識和自覺等人類的特徵互相連結。
那麼,這樣的具備意識的強人工智慧能夠真的實現?
目前來說,模擬出簡單的一個生物頭腦已經不是不可能的事,一如化學技術累積發展下,現在許多研發藥品已經使用計算機模型來推演藥物效果,以減少受試動物的痛苦等,或者就像昨天的文章中所說,英特爾已經讓晶片有了「嗅覺」。
這得益於電腦技術的發展。
從前在使用電腦語言的時代,原先電腦被認為不可能具備自我解決能力,電腦只是看起來聰明,實質上還是按照設計好的規則行事,並不能應付突如其來的狀況,仍舊會犯下錯誤。
而近年來從電腦在摩爾定律與神經科學研究的協助下,透過在電腦上對生物神經元系統複雜的電位衝動模擬上取得了明顯的突破,使人工智慧越過發展中的坎 —— 神經處理機制的發現。
因為生物的獨特是在於刺激與反應下會強化其回饋作用,這類能夠透過試錯學習經驗並總結,以回應各種刺激的系統(例如重複玩一款遊戲便能熟能生巧),還能從每種回饋中又觸發其他迴路來升級改進思考結構,做出更複雜的精細反應(例如在對話中選擇誠實、說謊、漠然之後考慮其不同行為的後果等),這樣的仿生領域已經得到長足的進步,使人腦與人工智慧的區別逐漸變得模糊。
但是,在機器是否存在有自主「思想」上的議題,將還會一直是人們爭辯的對象,特別是在智能理性與心理感性部分要如何區別、統合,更需要進一步引導其具有人性,來為人類提供最佳解,目前這些方法都還沒有探索出來。
在一些能夠自動推理出最佳解的工具已經出現,如 Google 旗下的 DeepMind 在此領域進展最多,成功開發出了初級的通用思考機器,他們將其類人腦神經程式稱「人工通用智慧技術」,而「通用」一詞就代表者這是一個可以透過自主「進化發展」的通用智慧。
強人工智慧的標準
人們提出過很多人工智慧的定義(例如能夠通過圖靈測試),但是沒有一個定義能夠得到所有人的認同然而,人工智慧的研究者們普遍同意,以下特質是一個智能所必須要擁有的:
自動推理,使用一些策略來解決問題,在不確定性的環境中作出決策;知識表示,包括常識知識庫;自動規劃;自主學習、創新;使用自然語言進行溝通;以及,整合以上這些手段來達到同一個的目標;還有一些重要的能力,包括機器知覺(例如計算機視覺),以及在智能行為的世界中行動的能力(例如機器人移動自身和其他物體的能力)。它可能包括探知與迴避危險的能力。
許多研究智能的交叉領域(例如認知科學、機器智能和決策)試圖強調一些額外的特徵,例如想像力(不依靠預設而建構精神影像與概念的能力)以及自主性。
基於計算機的系統中的確已經存在許多這樣的能力,例如計算創造性、自動推理、決策支持系統、機器人、進化計算、智能代理,然而並未達到人類的水平。
回到具體的檢驗強人工智慧的上手段,科學家們也有著很多不同的想法,其中最被廣泛認知的是下面的這四種:
1. 圖靈測試(圖靈)
如果一個人(代號 C)使用測試對象皆理解的語言去詢問兩個他不能看見的對象任意一串問題。對象為:一個是正常思維的人(代號 B)、一個是機器(代號 A)。如果經過若干詢問以後,C 不能得出實質的區別來分辨 A 與 B 的不同,則此機器 A 通過圖靈測試。
2. 咖啡測試 (格策爾)
生活中空間、操作技能的測試。將一部機器帶到任何一個普通的美國家庭中,讓它在不經刻意設計的條件下,懂得泡好一杯咖啡。它需要主動在陌生空間中認識咖啡機、辨識咖啡和水、找到合適的杯子並放好,然後按正確的鍵和操作以衝泡咖啡。這需要仰賴機器人學、圖像辨識的演算。
3. 機器人學生測試 (格策爾)
透過機器學習,分析和回答單一問題的測試 。讓一個機器去註冊一所大學,參加和人類學生同樣的考試,然後通過並獲得學位。例如日本的東大 AI 或是 IBM 參加搶答節目的華生。
4. 僱員測試 (尼爾森)
測試統籌、推斷、發想、規劃解決複雜問題的能力。讓機器處在一個經濟上重要的職位,需要它能夠和同樣職位的人類做得同樣好或者更好。
這些測試雖然都不盡相同,但目的都是評定創造出的人工智慧能不能解決人類的問題。
如果可以解決,那麼就認定該人工智慧屬於強人工智慧,也就是和人類一樣聰明,稱之為「人工智慧完備」。
現在業界假定的人工智慧完備的問題包括計算機視覺、自然語言理解,以及處理真實世界中的意外情況。目前為止,人工智慧完備的問題仍然不能單靠人工智慧來解決,依然需要介入人類的計算。
強人工智慧的研究歷史
現代人工智慧研究開始於 1950 年代中期。當時有一批狂熱的人工智慧愛好者,他們相信強人工智慧不僅是可以實現的,並且將在幾十年內就能實現。
人工智慧先驅司馬賀在 1965 年寫道:「在20年之內,機器就能夠做到一個人能做到的任何事。」
然而,到了 1970 年代早期,研究者們意識到他們遠遠低估了其中的困難。資助 AI 項目的機構開始對強人工智慧產生懷疑,向研究者們施壓要求他們轉向更有用的技術,所謂的「應用 AI」。
在 1980 年代初,因為電腦產品的迭代發展科學界重拾了對強人工智慧的興趣,並制定了一個十年計劃 ——比如十年內實現人工智慧的「日常對話」。 這也讓當時的工業界以及政府機構重新往人工智慧的領域中投入資金。
然而,人工智慧的市場在 1980 年代晚期發生劇烈崩塌,20 年內實現強人工智慧的遠景終究是沒有實現。
到了 1990 年代,人工智慧研究者背上了無法實現自己承諾的名聲,他們拒絕再作出任何預言,並且避免提到任何「人類水平」的人工智慧,以免被貼上「白日夢」的標籤。
在 1990 年代和 21 世紀初,主流的人工智慧在商業成果和學術地位上已經達到了一個新高度,依靠的是專注於細分的專門問題的解決。他們可以提供許多方案和商業應用,例如人工神經網絡、機器視覺以及數據挖掘。
這些「應用人工智慧」今天已經在工業技術和研究中得到廣泛和深入應用,在學術和產業方面都得到了許多資助。
大多數主流的人工智慧研究者希望,能夠通過將解決局部問題的方法組合起來實現強人工智慧,例如將智能體架構、認知架構或者包容式架構整合起來。漢斯·莫拉維克在 1988 年寫道:
"我相信,有一天人工智慧的自下而上的研究路線,會與傳統的自上而下的路線半途相遇,從而獲得真實世界中的能力,以及對於推理程序來說極其困難的常識知識庫。這兩種方向結合在一起的時刻,會成為了產生真正智能機器的所謂「金釘子」。"
然而,在人工智慧研究者之間也存在一些爭論,甚至涉及這個領域的技術理論基礎;例如,普林斯頓大學的 S.Harnad 在 1990 年關於符號基礎假設的論文中這樣寫道:
"人們期待,人工智慧的自下而上的研究路線,會與傳統的自上而下的路線半途相遇。但是如果這篇文章的基礎是正確的,那麼這個希望不會實現。
關於強人工智慧的爭論
除了技術理論層面的分歧,關於強人工智慧的爭論,不同於更廣義的一元論和二元論的爭論。其爭論要點是:如果一臺機器的唯一工作原理就是轉換編碼數據,那麼這臺機器是不是有思維的?
希爾勒認為這是不可能的。他舉了著名的「中文屋」的例子來說明,如果機器僅僅是轉換數據,而數據本身是對某些事情的一種編碼表現,那麼在不理解這一編碼和這實際事情之間的對應關係的前提下,機器不可能對其處理的數據有任何理解。
基於這一論點,希爾勒認為即使有機器通過了圖靈測試,也不一定說明機器就真的像人一樣有思維和意識。
但也有哲學家持不同的觀點。
丹尼爾·丹尼特(Daniel C. Dennett)在其著作《意識的闡釋》裡認為,人也不過是一臺有靈魂的機器而已,為什麼我們認為:「人可以有智能,而普通機器就不能」呢?他認為像上述的數據轉換機器是有可能有思維和意識的。
這個討論,至今仍沒有定論。但強人工智慧的研究,並未因分歧而停滯。
強人工智慧,科技企業的下一個戰場
谷歌有一個神秘的部門 —— 谷歌大腦,這是谷歌在人工智慧領域開發出的一款模擬人腦的軟體,通過開發具體的算法協助改進了谷歌的搜尋引擎、谷歌翻譯、谷歌地圖和雲計算基礎設施。
同樣,2015 年,馬斯克和 Y Combinator 前總裁薩姆·奧爾特曼(Sam Altman)聯合創辦了 OpenAI,目標也是開發通用人工智慧,確保「造福全人類」的前提下開發技術。2016 年微軟也加入了這一項目。
2019 年微軟宣布出資 10 億美元,讓 OpenAI 在微軟 Azure 雲平臺開發 AI 技術。
除了加入 OpenAI 之外,納德拉在 2014 年被任命為微軟的執行長後不久,就開始圍繞人工智慧重新定位。納德拉宣稱,微軟旗下的所有產品和服務都會「加入人工智慧」,還宣布人工智慧是塑造未來的三項基本技術之一(另外兩項是「混合現實」和量子計算)。
此外,Facebook 也投資了人工智慧實驗室,國內的阿里巴巴、騰訊、百度等科技企業也紛紛成立目標為強人工智慧的實驗室。根據研究公司 Mind Commerce 發布報告顯示,預計到 2023 年,通用人工智慧的投資將達到 500 億美元。
目前,科技企業與研究機構對強人工智慧的研究基本上分為兩大陣營:一方陣營認為只有深度學習才可以實現強人工智慧,另一個陣營則認為必須與其他方面(如邏輯規則)結合。在深度學習陣營中,還有進一步的劃分:一群強調算法創新,另一群則更關注構建神經網絡的規模以及提供的數據量。比如 OpenAI 就是堅定的「數據黨」。
但無論如何,強人工智慧或者說是通用人工智慧,已經成為了全球科技企業的戰場,這不僅關乎市場份額,也是會不會被未來的市場淘汰的問題。
人類可以和強人工智慧兼容麼?
已故的史蒂芬·霍金將強人工智慧稱為對人類的最大威脅,前文提到的馬斯克雖然通過 DeepMind 獲得了豐厚的收益以及行業影響力,但他也曾經將通用人工智慧的研究比作「召喚魔鬼」。
馬斯克與谷歌的聯合創始人拉裡·佩奇也是朋友。他在一次採訪中告訴記者,擔心佩奇的公司在可能成功地開發出超人智能後失去控制。即便這不會發生,一家公司控制如此強大的技術還是令人擔心。
既然這麼擔心,他為什麼不停止人工智慧的研究?
原因可能是,結束人工智慧研究不僅意味著放棄理解我們人類的智能到底是如何工作的,還意味著放棄了改善人類狀況的機會,也就是使人類文明更加美好或者維持下去的機會。
未來避免強人工智慧帶來的潛在風險,計算機科學家斯圖爾特·拉塞爾(Stuart Russell)在他的最新著作《人類兼容:人工智慧與控制問題》中提出了一個解決方案,可以讓強人工智慧對人類有益,並且永遠不會失控:
「理想的強人工智慧系統是其唯一的目標,是實現人的偏好而不是其自身目標的系統。只有這樣人工智慧才不會為了實現目標,而不顧其他的原因一意孤行。
最後一點非常重要,因為這正是當前人工智慧所缺少的。現階段驅動人工智慧的系統不是讓其理解人類的偏好,而是實現系統設定的固定目標,比如獲得更多的廣告點擊、最優化行為路徑,而不會估計對人類可能造成的危害和是否違背了程序設定的初心。
正因為這種設定,當前的人工智慧系統已經逐漸顯露出很多的問題,比如算法偏差、種族歧視等問題。
隨著人工智慧在執行任務時變得更加高效,這些問題可能會加劇。固定於實現一個目標的強人工智慧系統,最終可能會為了實現他的目標而犧牲整個人類社會。
但單純的理解人類意圖也並非完美的解決方案,因為設定者並不能代表全人類,如何處理不同人類的偏好衝突和人類本身的邪惡思想,仍是無法規避的風險。
畢竟人類也不是完美的,人類的決策也存在著很多的爭議。
只要回顧一下我們人類如何憑藉自身超然的智慧來控制整個世界,就能想像當強人工智慧的智慧超過我們時會發生什麼。對此羅素在書的最後提出了一個問題,也作為本文最後的一個話題來和大家探討:
在一個存在更高等智慧的非生物世界中,我們人類還能保持類似現在這樣的控制權麼?如果可以的話,我們的依仗將是什麼?