■今日視點
給一臺機器或「自主駕駛車輛」(AVs)編程,讓它以道德原則為基礎來做決策,目前要做到這一點並不難,難的是道德標準的考量,應該把自我利益還是公共利益放在首位?
在道路安全問題上,自主駕駛車輛(簡稱,自主車輛)給人們拋出了一個兩難之選。自主車輛包括無人駕駛的汽車、貨車、巴士等,如果用交通規則給這些自主車輛編程,很容易出現規則之間互相矛盾的情景:車前面前突然出現一個行人,它要麼撞上行人,要麼突然急轉彎,急轉彎的話它又會撞上路障導致車禍,傷害車上的乘客,這種情況下應該給它什麼指令?
去年6月到11月,美國麻省理工學院和俄勒岡大學研究人員合作,對這方面問題專門做了一項調查,結果卻發現公眾的觀點是互相矛盾的,而這種明顯分歧可能真會出現在生活中。研究論文發表在最近出版的《科學》雜誌上。
道德標準遭遇社會困境
在一系列調查中,研究人員發現,人們對自主車輛的道德標準通常採取一種「實用主義」的態度:在極端危險情況下,人們傾向於選擇使事故傷亡最小的做法。這意味著如果車上有10個乘客只有1個行人,它可能撞上行人;如果車上只有1個乘客而對面有10個行人,它就會急轉彎撞毀自己。參與調查的受訪者同時又表示,真有如此編程的一輛自動駕駛車,他們自己並不想坐上去。基本來說,人們想要的自主車是對行人儘可能地友好——但他們自己乘坐的那輛除外。
論文作者之一、麻省理工學院媒體實驗室副教授亞德·萊萬說:「大部分人想要的情況是,自主車能儘量減少傷亡,但每個人又都希望他們坐的那輛自主車輛能不計代價地保護自己。」這種結果就是所謂的「社會困境」:最終每個人都只按自己的利益行事,從而讓其他人變得更不安全。「如果每個人都這麼做,結果會成為一場悲劇——汽車不會減少傷亡。」
研究人員指出,就目前來說,要想設計一種算法來調和道德價值和個人的自我利益,是很不容易的。
調查結果彰顯民意矛盾
利用一種「亞馬遜機器人塔克」(Amazon Mechanical Turk)的網上民意調查工具,研究人員進行了6次調查。每次結果都一致顯示,人們更看重能挽救的生命的總體數量。76%的被調查者認為,對自主車輛而言這樣更道德,如果車上只有1個乘客而行人有10個的話,則犧牲那1個乘客更為道德。
但調查結果還顯示,如果一輛自動駕駛汽車真的這樣編程,犧牲乘客利益而保護行人,很少有人願意買這種車。問卷中有一項是讓人們對一輛會犧牲自己的乘客而保護10個行人的自動駕駛汽車評分,當被調查者考慮到自己可能坐在這輛車上,給它的評分頓時下降了1/3。
如果讓政府來管理無人駕駛汽車,確保按實用主義原則給它編程的話,這種設想同樣遭到人們的反對。在調查中,人們買這種受管理的車的可能性只有1/3,而同時他們又反對不受管理的、假定能以任意方式編程的車。
看來尚需實踐經驗指導
大規模採用自主車輛的總體效果如何,尚不能確定。但人們基本上都同意,自主車輛能減少交通事故,要定義幫自主車輛做道德決策的算法,無疑是個艱難的挑戰。
研究人員認為,這項調查從可能出現的道德利益的角度,為人們提供了有益參考。他們也承認在這個問題上,公眾的認識還處在一種早期階段,即隨著自主車輛的發展演變,目前得出的任何結論「不保證長期以後還是這樣」。
萊萬說:「這個問題不僅需要從理論上探討,重要的是還需要在實踐中探討。」
論文中強調,這是一個挑戰,任何汽車製造商和管理者都應記住這一點。此外,如果自主車輛經證明比接受政府管控更安全,強制實施實用主義算法可能導致矛盾的結果,即出於對管理的擔憂而推遲採用更安全的技術,反而增加了傷亡。
(責任編輯:羅伯特)