相信很多人都聽過哲學家菲利帕·福特(Philippa Foot)於1967年提出的「電車難題」。50年來,電車難題有了很多版本。在無人駕駛已經出現的今天,當車禍無法避免時,無人駕駛汽車究竟應如何取捨,是優先保護馬路上的兒童、還是寧願撞人也要保護車內人員呢?
人類即將進入機器人時代,《科學》雜誌有研究表明,隨著機器習得類人的語言能力,它們也容易習得語言應用中根深蒂固的偏見,這種偏見如若被放大,後果不堪設想。還有預言稱:人工智慧系統在未來很可能擺脫人類監管,自主作出決定,甚至走上反抗人類的道路。
5月20日,北大博雅講壇第129期活動「機器人能明辨是非嗎——人工智慧倫理道德的未來走向」正是要探討這些問題。
溫德爾·瓦拉赫
這次活動由北京大學出版社、北大博雅講壇、博古睿研究院中國中心、噹噹聯合主辦。活動主講嘉賓是《道德機器:如何讓機器人明辨是非》的作者之一溫德爾·瓦拉赫(Wendell Wallach)。中國社會科學院研究員劉鋼、西安交通大學計算哲學實驗室中方主任王小紅也出席了活動。
瓦拉赫是享有國際聲譽的人工智慧和神經科學倫理學領域的專家。他主持耶魯大學生物倫理學跨學科研究中心技術和倫理工作小組長達十餘年,獲得過全球技術網絡協會(World Technology Network)頒發的2014年的倫理學獎,世界經濟論壇任命他為2016-2018全球未來技術價值和政策委員會的聯合主席。
瓦拉赫並不是站在未來學家的角度去猜想或者預測人工智慧的未來,而是基於當前技術的現狀去說明倫理決策能力的必要性。目前這些普遍被應用的自動金融系統、機器人照料者,以及機器人吸塵器已經能夠影響人類的生活,並產生複雜而難以預料的倫理後果了。
他認為人工智慧的道德發展將經歷操作性道德、功能性道德,和充分的道德主體性三個階段。其中操作性道德比較低端,是指道德已完全掌握在設計者和使用者手中;第二個階段是功能性道德,稍微高端一些,因為這個階段機器自身已經有能力響應道德挑戰;第三個階段就是計算機可以自己做道德決策的階段,當然第三個階段還是開放性的,哲學家、工程師們還需要探討單單靠一臺機器能否成為道德主體的問題。操作性道德和真正的道德主體之間還有著很多的空間。
他在《道德機器:如何讓機器人明辨是非》一書中認為,雖然難有萬全之策,但有可能建構一種人工道德智能體(AMAs),讓人工智慧具有基本的道德敏感性,逐步使人工智慧和機器具備道德決策能力,並隨著智能技術和人機互動的進步而進化、發展。這是一種自上而下式與自下而上式的混合道路,這樣才能夠使美德和特殊的情境相結合。
瓦拉赫對很多問題還保持開放態度,比如最近的關於道德心理學的實證研究,強調一個人與生俱來的身體或心理能力,而不是理性、情感社交、語義理解,以及意識,對人的道德決策都很重要,那麼這些因素對於AMAs是不是本質性的因素呢?如果是的話,可否在計算機中實現?
博古睿研究院中國中心主任宋冰
博古睿研究院中國中心主任宋冰在致辭中說,以前計算機倫理強調的更多是被科學家和工程師的外部約束,行為規範,以及科技帶來的外部或者溢出效應,比如隱私、財產權、防範病毒、提防駭客等。機器人倫理則是新的領域。溫德爾·瓦拉赫這本書比較了兩種植入倫理的方法,一個是由上至下,先把倫理理論規範編程,並將它作為基準來衡量各種選擇道德的可接受性。另外一種方法是從上往下,給智慧機器人創造體驗和學習環境,讓他們逐漸學會什麼是可接受的道德規範和行為準則。她進一步表示,科學家要有人文關懷,反之亦然,哲學和社科專家也要有科學的精神。
《道德機器:如何讓機器人明辨是非》的主要譯者王小紅髮言說這本書是一本具有開創性的人工智慧的百科全書。她指出,將人類已經成熟的倫理系統自上而下地灌輸進機器人會出現不同倫理的矛盾和衝突,例如經典的阿西莫夫的機器人三大定律,被嵌入到一臺計算機之後,就會產生許多倫理困境。而如果使用邊沁的功利主義的方法,這種最可算法化的方法如何使最大多數人獲得最大的幸福感呢?這也有問題,因為它的計算量往往是無限的。
阿西莫夫曾提出機器人三定律:一是機器人不得傷害人類,或因不作為使人類受到傷害;二是除非違背第一定律,機器人必須服從人類的命令;三是除非違背第一及第二定律,機器人必須保護自己。
在問答環節,有觀眾提問,現在出現了哪些不道德的人工智慧,瓦拉赫回答說,「沒有不道德的人工智慧,只有不道德的意圖。人工智慧可能執行了有偏見的結果,但是這是因為輸入的數據本身已經帶有偏見了。」這種偏見主要是指種族主義、性別偏見等。還有同學提問,如何看待「類人腦」的開發,瓦拉赫認為人類目前還不夠了解人的大腦究竟是如何工作的,所以他不認為人工神經網絡能夠完整的模仿人腦。