本文來源:《中國科學報》 (2020-07-30 第7版 書評)
我們必須區分各種不同外觀的機器人與人構成的不同的互動關係。
比如當一位男性面對一個女性外觀的機器人和面對一個具有終結者外觀的機器人時,其互動關係將有很大的不同。
機器人應該被「以貌取人」嗎
計海慶
(上海社會科學院哲學所副研究員)
最近看到一則行為經濟學的案例,一項實證研究顯示:如果某上市公司的CEO換人,新人公開亮相後,投資者發現其顏值明顯勝過舊人,那麼公司的股票價格會在隨後的交易日內呈現增長。換句話說就是,CEO的顏值會影響公司市值,並呈現正相關性。顯然,這應該算是「以貌取人」的升級版了,長相可以決定業績預期。
外貌果真有這麼大的作用力嗎?在行為經濟學領域,這個命題還有待更多實驗證實,但不同外貌對人可以產生重大心理影響,這點在機器人倫理的研究中卻是事實,這便是著名的「恐怖谷」效應。
「恐怖谷」效應
圖片來源: 杜嚴勇 著 《人工智慧倫理引論》
恐怖谷效應是關於人對機器人心理變化的描述,由日本機器人專家森昌弘提出。當機器人與人類相像超過50%的時候,會導致人對機器人產生好感,願意與其接近、進行互動。但這一上升趨勢會達到一個臨界值,即大約95%的相似度。越過這個節點後,好感將急速跌落,先前外貌相似度與好感的正相關性將逆轉。機器人與人的一點點的差別,都會令人產生反感,甚至是噁心,仿佛面對的是行屍走肉。但是隨著相似度的繼續提高,好感程度又將恢復攀升。這一降一升形成的U形曲線便被稱為「恐怖谷」。
恐怖谷效應提出後,在不少實驗中得到了印證。而筆者更願意把它理解為機器人倫理中的 「以貌取人」定律,甚至稱其為「外貌第一定律」也不為過。因為它涉及的是機器人倫理或人工智慧倫理中最根本的「道德地位」問題,即機器人(或人工智慧)為什麼可以(或不可以)被當做人,而「恐怖谷」效應所提示出的正是「外貌」這個關鍵線索。解決機器人的「道德地位」問題,要靠「外貌」這條線索。
到底怎樣解決,一直缺少頭緒,直到筆者翻開了上海交通大學教授杜嚴勇的新作《人工智慧倫理引論》。作者是我的好友,這幾年耕耘於機器人和人工智慧倫理研究,成果頗豐。眼前這本近30萬字的大作便是代表。
全書分為十章,從基本理論問題、具體應用問題和可能解決路徑三個方面,勾勒出了人工智慧倫理研究的地形圖,著重論及了機器人權利、機器人道德能力建構、機器人安全等普遍性問題,也談到了軍用機器人、情侶機器人和助老機器人等應用案例,並從道德責任、倫理設計和自反性治理等層面指出了構建友好人工智慧的未來規劃和實現途徑。
如果不是筆者孤陋寡聞的話,該書應是近年來國內探討相關話題的論著中相當系統和全面的作品了,書中提到的對機器人道德權利和法律權利的區分、對機器人的價值敏感設計、自反性倫理治理等,都頗具啟發性。
當然,該書的最吸引人之處還在於其重要的地形圖功能,因為筆者從中看出了以「外貌」這條線索來解決機器人「道德地位」問題的進路。
首先,書中提到了一個有趣的現象,人和不同外形的機器人互動時,會採用不同的打交道方式。例如研究者對比了人和人形機器人ASIMO以及人和寵物機器狗AIBO之間的互動後發現,機器人的外觀一定程度上會影響它們與人類的互動。最明顯的差別是,人們經常採用撫摸的方式對AIBO的行為進行反饋,而對ASIMO幾乎沒有撫摸的現象發生。相反,使用者傾向於對ASIMO說「謝謝」。顯然,這是被試者在無意中參照了與人的交往以及和寵物互動的不同行為方式的結果。而另一組實驗也印證了人與AIBO之間的互動,更接近於人和真實的寵物之間的關係。
人形機器人ASIMO
圖片來源網絡
寵物機器狗AIBO
圖片來源網絡
對此,研究者給出的理由是,人機互動的具體方式是基於參與者不同的情感模式,是情感把人帶入了不同的互動情節中,而帶動情感的主要原因是機器人所呈現的外觀。
接著,書中也給出了相關理論闡述了外觀在人類道德生活中所扮演的重要角色,這便是馬克·考科爾伯格提出的觀點:在互動關係中研究外觀(appearance)的倫理意義。
從關係的視角看,無論是人與動物互動,還是人與機器人互動,互動對象到底具有怎樣的物理或生物學性質並不那麼要緊(或者說對象到底是什麼材料做的,這點不那麼要緊)。用現象學的觀點看,人與機器人的關係,或者說人和機器人之間的互動關係模式才是更重要的。
我們必須區分各種不同外觀的機器人與人構成的不同的互動關係。比如當一位男性面對一個女性外觀的機器人和面對一個具有終結者外觀的機器人時,其互動關係將有很大的不同。
由此,考科爾伯格特別強調機器人的外觀在機器人倫理中的重要作用,因為外觀或外貌在視覺接觸的一瞬間便把用戶帶入了不同的情感預設中,這一預設是一種先入為主式的決定。
有了上述理論後,便可以解釋人際關係中的「恐怖谷」效應了。
為什麼機器人與人的相似度在接近95%時,好感度會急速跌落呢?因為在那個節點上,人和機器人的關係正在經歷一個跨越,即機器人正在從僅僅作為供人使用的工具或供人消遣的玩偶向一個人類他者進行轉換。相似度處於任何低於95%的區間時,由於外觀或行為上較為明顯的差異,例如動作不夠靈活、語言交流不夠順暢,或外形與人不像等等,機器人給人的感覺就是一件沒有生命的自動化工具或玩具;但是當從外形、外貌到功能全面接近人的時候,機器人給人的初步感覺可能就是「乍一看以為是個人」,但那5%揮之不去的違和感,讓人在驚異之餘又恢復到機器人還不是人的認識中,從而讓人經歷了一次情緒上的過山車起伏,表現為驚異和恐怖。
而當相似度繼續攀升,把那5%不相似性繼續加以彌補時,人的好感會和相似度成正比上升。這是因為當機器人全面接近於人類後,人就把機器人納入了另一個關係範疇內進行認識了,即把機器人當成了和正常人完全相同的可以交往的同伴來對待了,也即是說「機器人」獲得了人的道德地位,被當作人來看待了。
法國哲學家伊曼努爾·列維納斯曾說,倫理關係始於他者的出現,理解倫理關係的首要性要從他者之臉入手;而當機器人以逼真的人類面容呈現時,機器人的「道德地位」問題或許就已經解決了。機器人被「以貌取人」,這在學理上或許也是站得住腳的吧。
好書推薦
直接點擊封面購書
《人工智慧倫理引論》
杜嚴勇 著
上海交通大學出版社
隨著人工智慧科技的飛速發展,人工智慧產品在許多領域得到廣泛的應用,由此也引發了一系列倫理問題。本書從三個層面討論了人工智慧倫理中的若干基本問題。首先是人工智慧倫理中的普遍性問題,比如機器人權利、機器人道德能力的建構以及人工智慧安全問題等;其次是具體領域的機器人引發的倫理問題,比如軍用機器人、情侶機器人與助老機器人等;第三是人工智慧倫理問題的解決進路,包括道德責任、倫理設計、自反性倫理治理等內容。本書兼具學理性與通俗性,可供相關領域的科技工作者、哲學研究者以及對人工智慧倫理感興趣的人士閱讀。
END