作者 | 胡珉琦
新一屆世界人工智慧大會剛剛過去,在人工智慧最前沿技術、產品、應用和理念的展示之下,超級智能時代何時才會到來的問題始終縈繞在人們的心裡。
從解決問題能力的提升,到會「思考」,直至有「情感」,AI 一路進化,能否真的配得上人們對未來的期待?
2016年,具有微表情的仿人外形機器人「佳佳」誕生在中國科學技術大學。隨著技術迭代,她被賦予了更多類人的情感,能讀懂人類的喜怒哀樂,以至於人們在和她進行深入互動的過程中還能產生微妙的「化學反應」。
基於情感交互的服務機器人,未來無論是面對空巢群體、單身群體,還是新生代文化群體、需要心理幹預的群體、接受教育娛樂的少年兒童,都更能滿足他們內心的需要。
中國科學技術大學計算機學院教授、機器人實驗室主任陳小平在2012年開始進行情緒智能的研究。
最近,他在中國人民大學哲學與認知科學明德講壇,分享了人工智慧(AI)中的情緒研究方法和挑戰。
他特別提到,在相關基礎研究尚未突破之前,情感機器人這種非人非物的第三類存在,可能已對人類社會產生了震撼性衝擊和深遠影響。
情緒智能研究關注什麼
陳小平介紹,在AI領域,情緒研究起步相對較晚,至今不過三四十年時間。
當前AI情緒研究的兩個主要內容,首先是對主體的情緒表現加以識別,主要包括人的表情、言語、姿態的基本情緒類型。
說到情緒,人們最容易聯想到的就是表情,要想讓AI認識人類的情緒,首先需要採集表情數據,如一段視頻,然後進行人工標註,比如「高興」「憤怒」「悲傷」等等。
只不過,目前這些表情種類還比較有限,大概只有十幾個。
有了大量的表情數據,再通過深度學習加強化學習的方法訓練AI,當它再看到其他視頻時,就能夠識別出視頻中的用戶表情了。這就是現在的AI科學家常用的方法。
「表情只是情緒的一種外在表現,那麼,這種情緒表現對應的真實的心理活動究竟是什麼,AI並不清楚。」 陳小平說。
人類知道「笑」這種表情可以解讀出多種不同的心理活動,它可以代表快樂,也可以代表苦澀或者無奈。但AI距離這樣的解讀還有十萬八千裡。
AI情緒研究的另一個重點是情緒反應。我們關注一個情緒主體,主要看他對外界的刺激到底會產生怎樣的情緒反應。
陳小平認為,在情緒反應方面,AI最需要的是一個情緒反應模型,以便讓AI根據主體的情緒反應模型對他的情緒反應進行預測和推理,從而支撐人—機情緒交互,這也是情緒研究的第三層內容。
預測和推理越準確,在與人互動時,AI就越知道如何滿足用戶的情緒需求。
關於情緒交互,他解釋,就是機器人和人之間的情緒互動。
簡單說,就是機器人要識別人的情緒,並給予適當的響應。
情緒交互的實現涉及情緒識別,基於情緒反應模型,做出情感預測和推理,知道如果機器人做什麼動作、表情,用戶的情緒反應可能是什麼、是否符合情感交互的需要,最後生成自己要做出的表情。
「在這樣一系列情緒智能化研究中,還存在瓶頸和短板。」陳小平坦言。
受限於封閉性
情緒智能化到底面臨怎樣的挑戰?
陳小平認為,研究情緒智能化首先需要回答幾個基本問題:我們如何定義情緒智能化,它的內涵是什麼;實證標準是什麼;應用目標又是什麼。
然而,這些問題都沒有確切的答案。
「基於我們的觀察,在當前的AI研究中,所謂的『理性思維智能化』一般是以『戰勝人』為實證標準的,AlphaGo的成功即是如此。但這很難成為情緒智能化的實證標準,它的實證標準很可能是被人接受,受到人的認可。」
他表示,這兩種標準差距極大,由此可以看出,它們的科學內涵也截然不同。
在談到技術層面的困難時,陳小平回答,在情緒研究中,情緒反應對科學家來說是最難的,它需要建立一個模型用於預測,在這一模型中有主體表示、環境表示、事件表示。
這些表示是作為情緒反應機制的輸入,最後還需要有輸出,就是對某個對象的表示,主體會對該對象有一個情緒反應。
「我們把情緒反應模型看作是一種符號模型。AI理想化觀點下的符號模型是白箱,該模型對預期應用場景的所有預測都成立。」
陳小平強調,只有當一個應用場景是封閉的,現有AI技術在該場景中才是有效的,否則不保證應用成功。
他解釋,所謂封閉性是指,該問題存在一個有限、確定的模型,而且該模型與實際問題的對應也是有限、確定的;或者,該問題存在一個有限、確定的元模型,並且該問題的代表性數據集也是有限、確定的。
「可是,人類的情感機制必然是在非封閉性場景中運行的,因此,情緒智能模型也應該是非封閉的。」
在他看來,情緒反應模型的所有元素都是複合的,通常不能完全確定它們的所指。
也就是說,模型中的所有元素包括主體表示、環境表示、事件表示、對象表示和情緒反應機制,都是黑箱或者灰箱。
因此,只能適應封閉場景的現有AI技術對情緒智能化就產生了很大的限制。
AI在情緒智能化領域遭遇的挑戰,其實是源於AI系統與人的本質不同。陳小平認為,這種本質不同從根本上說,來源於AI系統的「思維」目前就是AI經典思維,是不能有效應對不確定性的,而人的思維可以。
「未來,AI要想實現從經典思維到複雜場景化的轉變,局限於傳統技術路線恐怕很難在二三十年內有突破的希望。」
差距之下,陳小平希望探索一些新的辦法、新的技術路線,也期盼與神經科學、認知科學、心理學、哲學等鄰近學科的合作。
「第三類」存在物
在鄰近學科,學者們如何看待機器的情緒和人類情緒之間的距離?
廈門大學人文學院哲學系教授朱菁指出,人類的情緒和神經系統、生物化學系統及身體具有密不可分的關聯,智能機器的本質和生物體完全不同,那麼智能機器產生的情緒情感不可能和人類等同。
它只是在某一個功能層面、計算層面模擬人類的情緒反應模式,但它並不具有真正的情緒。
「這就好比我們可以在計算機系統裡模擬地震、洪水、暴風雨,但是它們並不真的存在於計算機中,真正的地質、氣象災害只會在自然界中產生。」
因此,朱菁認為,心理學家、神經科學家普遍認為,要賦予機器真正的情緒情感,可能是一個無法實現的任務。
對此,陳小平表示認同。「用傳統AI的觀點來看,人類情緒無法脫離生物學基礎,而機器人沒有人的肉身,因此儘管我們希望實現的是AI,可實際上我們做的還只是人造智能。」
不過,隨著能表達豐富的情感,還能精確捕捉人類的開心、驚訝、生氣、悲傷等情緒的佳佳機器人面世,陳小平團隊有了一個「另類」的想法。
他說,中科大在佳佳機器人上的廣泛試驗揭示出一種新的人類經驗:用戶明確感覺到佳佳既不是人也不是物,這與早期部分用戶將AI與人相混淆是有本質上的不同的,那時仍處於人、物的二分法之中,而現在出現了非人、非物的第三種存在物的可能性。
「因此,在情緒智能化基礎研究取得實質性突破之前,它的應用有可能在10年之內或者最多15年取得重大進展,而這些進展甚至可能對人類社會產生震撼性的衝擊和深遠的影響——那就是出現第三類存在物——人—物。」
基於這種觀察,陳小平意識到,人們其實並不在乎兩類情緒在內涵上究竟有何不同,它們之間的界限是模糊的。
「由此,我們需要更加注重從接受的觀點去思考和這些情緒機器人交互的人。如果現有情緒智能技術路線走通了,那麼在商業上會滿足極為廣泛的需求,它們會對這個社會產生廣泛深刻的影響。」
陳小平開始思考,儘管從科學角度我們認為它不是「真正的AI」,但如果社會大眾都接受了該怎麼辦;當它已經成為一個新的社會現象,我們的科學研究是否需要關注這種現象;這是否意味著,除了技術視角,還要從社會學視角出發,我們所開發的情感機器人未必一定要有和人一樣的情感,重要的是怎樣讓人們能夠實實在在地接受它……
朱菁也表示,這是一個很有啟發性的問題。他注意到,在AI產品出現時,人們就存在一種心理傾向,我們把它稱之為公眾對於AI的過度擬人化。
「當機器客觀上還不具備一些能力、功能時,人們就對它進行了擬人化的想像,這對於從事AI研究的專家來說是不存在的。未來,對於這種心理傾向我們到底應該接受、允許,還是矯正它。」
AI科學家是應該告訴人們「你們錯了,機器的情感不同於人類情感,它們只是物」,還是坦然接受這一現實,然後以此為出發點,面向人類未知的星辰大海,應對可能面臨的來自倫理、道德、社會等方方面面的挑戰?
這個答案尚屬未知。
(原標題為《AI與情感》)
能造出像人一樣「思考」的機器嗎
作者 | 胡珉琦
如今的AI系統已經在不少具體問題的解決能力上超過了人類,那麼,我們究竟能否製造出像人一樣「思考」的機器?AI會有一天超越人類智能嗎?
計算型智能只是人類智能的一種類型
下圍棋是人類的高級智能活動之一,過去人們認為計算機不可能超越人類的這種智能。
因此,下圍棋也被視為AI的「聖杯」。
直到DeepMind 推出的AI圍棋程序 AlphaGo戰勝了人類。
浙江大學神經管理學實驗室創始人、國際歐亞科學院院士馬慶國解釋,AlphaGo大放異彩,得益於蒙特卡洛樹搜索框架,加上深度學習和強化學習。
他說,假設計算機的計算速度「無限」快,計算機就可以用「窮舉法」為圍棋棋手瞬間找到「最優解(最優落子位置)」。
但事實是,每一步落子的計算量太大了,當前最快的計算機速度也根本無法完成「窮舉」這樣大的計算量,所以要從當前的可能的落子方案中選一些,交由不同計算機(群)去做並行計算。
如何在當前可能的落子位置選出一組落子點(試算點)交給不同計算機(群)做並行計算?
他表示,除了利用計算機越來越快的存取速度和越來越大的存儲容量、從過去「對弈」的成果(不僅僅是「定式」)產生「試算點」之外,還需要藉助很多「節省計算但儘可能選優」的技術。
蒙特卡洛樹搜索框架、深度學習和強化學習就是其中三種重要的技術(算法)。
馬慶國認為,近10餘年來,AI最顯著的進步之一發生在深度學習的領域(主要是深度神經網絡領域)。
基於深度神經網絡的深度學習,沒有對所研究問題的環境作明確表徵,也不探求因果關係(本質上是「黑箱」模型)。
在基於巨量數據、完成了對一個網絡的訓練後,程式設計師就用這個訓練的結果模型,運行新的數據,選擇落子的走法。
AlphaGo的核心技術是強化學習。
強化學習的本質是實現「自動決策」。機器會在沒有任何指導、標籤的情況下,嘗試行為,得到一個結果,再判斷是對還是錯,由此調整之前的行為,通過不斷地調整,算法持續優化。
有人認為,強化學習的本質正在接近人類的學習,但它是否能夠實現人類大腦的智能?馬慶國的回答是否定的。
「目前,我們還沒有製造出能像人一樣思維的機器,我們只能在一些狹義領域,製造出比人類某些智能更出色的機器。這並不奇怪,因為這些領域關注的是計算機更擅長的事——基於數學的邏輯的算法和對以往事實的快速存取。」
在馬慶國看來,計算型的智能只是人類智能的一部分。
在這種類型的智能方面,人造的機器超過了人。
但在「理解」(如,理解語言、理解社會)方面,AI與人類智能有質的差異。
馬慶國介紹說,英國數學家和物理學家羅傑·彭羅斯曾在他著名的AI科普讀物《皇帝新腦——有關電腦、人腦及物理定律》一書中,引用了美國哲學家約翰·西爾勒的思想實驗 ——「中文房間」來論證計算機及算法實際上並不是「理解」智能。
「中文房間」實驗假設一位只說英語的人身處一個密閉房間。
假設房間裡有一本回答所有問題的中文書,以及足夠的稿紙、鉛筆和櫥櫃。
寫著中文問題的紙片通過小窗口被送入房間中。
房間中的人可以通過比對,在這本書上找到這個問題的中文答案。
然後抄寫這個答案從窗口遞出去。
雖然他根本不懂中文,但房間外的人卻以為他理解了中文問題,並用中文思考。
「計算機就是這樣工作的。它無法理解接收到的信息,但它可以運行一個程序,處理信息,然後給出一個正確的回答,好像理解了接收到的信息一樣。」
馬慶國說,這個思想實驗證明,「計算機及其算法」事實上並不像人類一樣「理解」其所執行的任務。
人類是如何思考的
AI要想真正實現人類智能,需要具備什麼能力?馬慶國認為,人類智能的最大特點之一,就是能夠創造性地解決從未遇到過的新問題。
他常舉的一個例子是:當一個人在過一座獨木橋時,突然之間橋斷裂了,人依然可以想出很多點子來解決過河的問題,找木頭搭建簡易橋或者抱著浮木遊到河對岸,等等。
「計算機就沒有這樣的能力,除非人事先給它設定了『在需要過沒有橋的河時,應找木頭搭建簡易橋』。可是,如果周圍沒有可以搭建簡易橋的木頭呢?人類可以想其他辦法,計算機就無能為力了。」
在他看來,問題的癥結在於,計算機是遵守規則的機器。在現實世界中,規則總是不可能窮盡的。
現在的AI本身並沒有創造性,當遇到舊規則不能解決的問題時,它不能像人類一樣完全根據面對的問題想出從未有過的解決辦法。
人類的理解力從何而來
馬慶國說,以語言為例,一個孩子學會理解語言,其實也是來源於對應關係。
當他第一次面對一個全新的詞彙時並不能理解,直到一種情景反覆出現,並在這個情境中與他人互動,他就可以將這個詞彙和情景對應起來。
越長大,可以跟這個詞彙對應的東西就越多,關於這個詞彙的理解也就形成了。
再經過不同個體的互動和交流,關於這個詞彙的共同理解也就形成了。
計算機只能做到有限的對應,因為真實環境太過複雜,現在它對語言的「理解」可謂捉襟見肘。
「但這也帶來了一個問題:計算機總是在不斷進步和發展的,理論上它的對應也會越來越豐富、越來越複雜。那麼在哲學上,這一量變是否可能帶來質變?計算機也進步到可以理解詞彙了?」
馬慶國認為,這個問題還沒有答案。
不過,他對AI完全實現人類智能的前景並不樂觀。
人腦真實的智能和AI最大的區別,可能在於腦的工作方式。
「儘管計算機也叫電腦,但它和人腦的工作方式完全是兩回事。」
馬慶國說,無論是存儲、計算,還是創造,大腦都是靠神經元、樹突、軸突以及突觸等相互銜接的結構和多種神經介質來實現工作的:從神經元前面來的信號,到這個神經元後面出去成百上千個甚至更多的連接。
不同的連接方式,就可能在工作中形成了不同的意識。
對此,人們又開始對模擬人腦的AI抱有希望。
他表示,這就需要破解哲學上的一個難題:思維是彼岸的,現實存在是此岸的,兩者之間是有鴻溝的,哲學上認為這是不能跨越的。
現在,我們希望通過腦神經研究,使彼岸的思維能夠用此岸的神經元活動來解釋。
「人類的意識本身最終能夠在神經元活動的水平上被解讀,可能需要上千年的時間。即便解讀了,機器能夠完全模擬神經元的工作方式嗎?」
作為首個提出神經管理學的學者,馬慶國坦言,按照AI現有的技術路徑是難以實現的,除非未來我們能夠創造出一種完全顛覆性的理論技術體系。
從這個角度來看,擔憂AI會超越甚至取代人類,根本無從談起。
《中國科學報》 (2020-07-23 第5版 文化)
編輯 | 趙路
排版 | 郭剛
不想錯過中國科學報的推送?
關注並將我們星標吧!
方法如下 ↓