2015年07月20日 07:41 來源:中國社會科學報 作者:張清俐
字號內容摘要:
關鍵詞:人工智慧;谷歌;機器人;倫理意識;無人駕駛汽車
作者簡介:
日前,已進行測試多年的谷歌無人駕駛汽車發生事故,致人受傷,這一事件再次將人工智慧牽涉的倫理問題推到風口浪尖。人工智慧研究與生俱來具有「哲學特質」。學者認為,不同人工智慧專家推出的人工智慧產品背後有不同哲學預設和思路,由兩個不同編程思維的機器預測同一件事就會得出不一樣的結論;同樣,也不能指望通過造一臺機器解決所有問題,因為造機器的人本身是有限性的。
人類智慧的物化結果
目前,眾多網際網路巨頭都在人工智慧領域投入巨大資金,並且在諸如語音識別、圖像識別、自動駕駛汽車技術等人工智慧領域的研究已經初見成果。「包括人工智慧在內每一項技術的誕生、發展和進步,一定程度上都是以機器來替代人類體力和智力作為技術發展邏輯的終點。」上海社會科學院哲學研究所副研究員計海慶說。
有專家分析認為,在一些災難事件背後,往往都有人為因素導致或加重災難性後果的存在。「在某些特殊情境和極端條件下,人性弱點往往會放大災難後果。」計海慶認為,在某些情況下,技術的應用有助於克服人類的負面情緒。擁有人工智慧的自動機器(或軟體)能夠比人更準確、可靠和完整地執行某些任務。一套足夠成熟的人工智慧系統,可以在一定程度上減少甚至糾正人為不安全因素。
復旦大學哲學學院教授徐英瑾強調,應該看到即使再智能的機器也是科學家通過統計學、數據挖掘原理等,將科學的規則以編程形式讓機器自動運行,因此,其歸根結底還是人類智慧的物化結果。
機器人倫理意識成焦點
事實上,隨著人工智慧技術的廣泛應用,在這些領域廣泛應用的機器人也面臨類似倫理困境:機器人能否成為倫理主體?比如,自動駕駛汽車提升了生活的便捷性,更增強了安全性。然而,面對複雜的公路情況,我們真的可以將可能牽涉「生殺大權」的倫理選擇交給機器人嗎?
對此,中國社會科學院哲學研究所研究員甘紹平認為,「機器人與具有自由選擇能力的人有根本的區別。」在他看來,前者的行為取決於原因,後者的自主決斷取決於理由,而決定意味著對不同理由的思考和選擇。原因從屬於自然界的必然性,理由則起源於人際交往、社會關聯的運行規則和對文化歷史經驗累積的反思與醒悟。道德選擇的前提是自由意志。意志自由只屬於能夠對理由進行思考、判定、權衡與抉擇的人。機器人不可能擁有自由意志,也不可能具備倫理決策的理解力。
中國政法大學哲學系教授費多益對機器人的倫理意識這一提法進行了質疑,「機器只能在理想情況而不是在綜合複雜的情形下進行識別,後者恰恰與人類主觀經驗密不可分。機器總是機械、精確地執行人類為它編制好的程序,它的算法完全無法刻畫人類視覺思維中的容錯性,而這種容錯性,正是人類值得驕傲的心智特徵。」
徐英瑾則認為,雖然目前機器人還遠未智能到成為倫理主體,但機器人具有倫理意識並不是完全沒有可能。為實現這一目標,需要人類研究倫理意識和程序之間的關係,以一套程式語言表達這套規則。但他也指出,目前機器人可以扮演「參謀」的角色,即當我們面對不同選擇時,由它提供每一種選擇面臨不同結果的概率,人類有最終決定權,並承擔所有責任。畢竟這一「參謀」提供的選擇源於客觀理性,可以平衡人類的直覺思維,利於人類在直覺與機器方案之間再做平衡選擇。
警惕人工智慧副作用
在人工智慧應用的各個領域都不乏審慎的聲音,人們擔心日益成熟的技術可能成為一把「雙刃劍」。今年1月,由一批人工智慧科學家創立的「生命未來研究所」發表了一封公開信,呼籲人們要警惕人工智慧的副作用,並特別提到把人工智慧的法律和倫理研究列為「短期研究優先項」,呼籲倫理學家和人工智慧專家的合作。
目前關於人工智慧的倫理反思更多出現在科幻作品中。「基於現有的人工智慧理論和可供實現的技術手段,還不存在任何具有成人智力水平的智能系統研發成功的希望。因此,人工智慧的社會應用面臨的倫理困境這類問題,更多帶有思想實驗性質。背後則是倫理學的功利論或義務論的推理模式。」計海慶表示,學術界對於人工智慧的倫理問題的思考具有自己的特點。比如從思想史的角度找出人工智慧技術產生的思想背景,或是歷史上類似的技術在社會化過程中產生過怎樣的問題,以及這些問題是如何被解決或消解的,以此作為一個預見性結論的參照系。
倫理學家如何與人工智慧科學家進行合作?徐英瑾認為,人工智慧涉及的倫理問題需要業界編程思路與哲學思辨思路相結合。他在《心智、語言和機器:維根斯坦哲學和人工智慧科學的對話》一書中對哲學和人工智慧之間的內在關聯進行了探討,認為倫理學家需要熟悉決策論、博弈論這些經濟學、統計學等領域的理論,思考這些理論的哲學前提,加強對人工智慧話題的人文考量,如此才能夠向業界反饋有質量的意見和建議。
中國社會科學報記者 張清俐