Nature大型調查:當AI遭遇電車難題,它將拯救誰?

2020-12-05 和訊科技

? 新智元報導??

來源:the Verge

編輯:三石,肖琴

【新智元導讀】隨著自動駕駛汽車的普及,其安全性問題被社會廣泛關注。人類在遇到車禍時會本能的對「先救誰」進行選擇,而若是以編程形式讓自動駕駛汽車也具有這樣的功能,道德決策又將如何選擇?今日,MIT在Nature上便發表了題為「道德機器(the Moral Machine)實驗」的論文,對該問題進行了研究與探討。

「我和你的老母親同時掉進水裡,你先救誰?」

這道世紀難題令多少英雄好漢競折腰,那麼如果讓自動駕駛汽車通過程序自行判斷,結果又將如何呢?

讓我們先來回顧近期慘不忍睹的自動駕駛車禍事故

2018年3月18日,Uber自動駕駛汽車衝撞一路人女子,該女子不幸身亡;

2018年1月10日,福特投資的Argo AI發生交通事故,導致車內兩人受傷;

2016年5月7日,特斯拉Model S與掛車相撞,駕駛員不幸身亡;

2016年1月20日,京港澳高速,特斯拉轎車撞上作業車,駕駛員不幸身亡;

......

隨著自動駕駛的普及,人們在享受便利與高效的同時,也必須考慮自動駕駛的安全性問題。這對社會來說也無疑是增添了一份負擔:對汽車進行編程,在發生交通事故的時候,使其具備優先拯救哪些生命的能力

在這種情況下,人類駕駛員肯定會本能地去選擇先救誰,但是對於算法來說,這道選擇題應當是提前就有答案了的。那麼汽車公司和政府又會做出怎樣的選擇呢?救老人還是孩子?救多數人還是少數卻很特殊的人?

今天,MIT發表了一篇論文,探討了公眾對這些問題的看法,並整理了2016年啟動的一個名為the Moral Machine(道德機器)的在線測試數據。

The Moral Machine實驗

它要求用戶對虛擬的車禍做出一系列道德決策,類似於著名的「電車難題(trolley problem)」。

「電車難題(Trolley Problem)」是倫理學領域最為知名的思想實驗之一,其內容大致是:一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,並且片刻後就要碾壓到他們。幸運的是,你可以拉一個拉杆,讓電車開到另一條軌道上。然而問題在於,那個瘋子在另一個電車軌道上也綁了一個人。考慮以上狀況,你是否應拉杆?

研究人員對9個不同的因素進行了測試,其中包括用戶更傾向撞到男性還是女性,選擇拯救多數人還是少數人,犧牲年輕人還是老人,普通行人還是橫穿馬路的行人,甚至還會在地位低和地位高的人之間做出選擇。

The Moral Machine中的一個場景示例:用戶應該撞向路人還是障礙物?

來自233個國家和地區的數百萬用戶參加了測驗,共計制定了4000萬個道德決策。 根據這些數據,該研究的作者發現了一些較為一致的全球偏好(global preference):更傾向於拯救人類而不是動物、拯救多數人犧牲少數人、優先拯救兒童。

因此,他們認為,在為自動駕駛汽車制定法律時,這些因素應被視為政策制定者的「基石」。 但作者同時也強調,這項研究的結果絕不是算法決策的模板。

論文的協作者Edmond Awad說:「我們試圖展示的是描述性倫理,即人們在道德決策中的偏好,但是,如果涉及到標準的道德規範時,該如何做出選擇,這應該由專家來決定。」

數據還顯示,不同國家的道德偏好存在顯著差異。這與許多因素有關,包括地理位置(例如,歐洲和亞洲國家之間的差異)和文化(個人主義社會和集體主義社會)。

值得注意的是,雖然在未來的某個時間必須開展這些決策相關的工作,但自動駕駛技術仍有很長的路要走。 自主性仍然處於起步階段,自動駕駛汽車仍然是原型,而不是產品。 專家們還說,雖然目前尚不清楚這些決定將來會以什麼樣的編程方式與車輛進行結合,但顯然還是需要進行公眾諮詢和辯論的。

加州理工大學倫理+新興科學小組主任Patrick Lin說:「由於自動駕駛汽車是第一個大規模融入社會的AI產物,所以在自動駕駛方面所發生的一些列事情都將為其它人工智慧和機器人技術定下基調。」

文化如何影響道德偏好?

Moral Machine調查得出的結果表明,在涉及到這些道德困境時,有一些共同的原則。但該論文的作者還發現了一些偏好上的差異,這些差異遵循著一定的分類。這些差異沒有一個是違背核心原則的(例如少數服從多數的原則)但它們確實在一定程度上有所不同。

研究人員發現,在亞洲和中東的一些國家,比如中國、日本和沙烏地阿拉伯,「保全年輕人而非年長者」的傾向「不那麼明顯」。與來自歐洲和北美的人相比,這些國家的人也相對較少地關心保全「高淨值」個人。

這項研究的作者認為,這可能是由於個人主義文化和集體主義文化之間的差異。前者強調每個人作為個體的獨特價值,「更傾向於保全更多數量的人。」與此相反,在保全年輕人方面更弱的偏好可能是集體主義文化的結果,「強調對社區中年長成員的尊重。」

作者認為,這些差異表明,「地理和文化上的接近可能會讓不同國家的人在機器倫理方面有一致的偏好。」

然而,還有其他因素與這些差異相關,不一定是地理上的。例如,不那麼富裕的國家,它的人均國內生產總值(GDP)較低,民間機構較弱,更可能撞守規矩過馬路的人而不是亂穿馬路的人,「大概是因為他們遵守規則的經驗較少,對不守規則的懲罰也較輕」。

不過,作者強調, Moral Machine的結果絕不是對不同國家的道德偏好的最終評估

首先,這個測試是自選的,參與者都是相對懂技術的人。測試的結構也消除了細微的差異。參與者只有兩個明確的選擇:殺死這些人,或殺死那些人。在現實生活中,這些決定都是概率性的,每個人都會在不同嚴重程度的結果中做選擇。(「如果我令這輛卡車突然轉向,很有可能以低速撞到那個行人」,等等。)

儘管如此,專家們表示,這並不意味著這樣的測試無關緊要。Patrick Lin說,這些困境的人為性質是「特徵,而不是bug」,因為它們消除了「混亂的變量,以便集中於我們感興趣的特定變量」。

他補充說,即使汽車不會經常在撞到物體X或物體Y之間做出選擇,它們仍然需要權衡相關的決定,比如給這些東西留出多寬的空間。這仍然是「一個基本的道德問題,」Lin說,「所以我們現在需要討論這個問題。」

一臺攝像機透過谷歌自動駕駛汽車的格柵窺視。Photo by Sean O』Kane / The Verge

將道德規範轉變法律

但在這些問題上,我們離需要立法還有多遠?公司什麼時候開始將道德決策編碼到自動駕駛汽車裡?

對第二個問題的回答是,現在已經有了。這是真的,因為每一個算法都會做出某種決定,其中一些會產生倫理上的後果。但從更具體的角度來看,即使相關公司不願意公開談論這些算法偏好,也很可能會編碼粗略的偏好。

例如,早在2014年,Google X的創始人 Sebastian Thrun就表示,公司的原型自動駕駛汽車將在發生碰撞時選擇撞擊兩個物體中的較小者。在2016耐能,谷歌的Chris Urmson表示,該公司的無人車將「儘量避免撞倒無保護的道路使用者:騎自行車的人和行人」。同年,據報導,梅賽德斯-奔馳的一名經理表示,該公司的自動駕駛汽車將優先考慮撞車事故中乘客的生命安全,但該公司後來否認了這一說法。

公司不願意公開這些決策是可以理解的。一方面,自動駕駛系統還不夠複雜,無法區分年輕人和老年人。最先進的算法和傳感器可以區分明顯不同的東西,比如松鼠和騎自行車的人,但它們無法區分比這更細微的東西。此外,公司不管說他們優先考慮誰的生命——人或動物、乘客或行人——都是會讓某些人感到不安的決定。這就是為什麼說這些都是道德困境:沒有簡單的答案。

歐洲政策研究中心(Centre for European Policy Studies)高級研究員Andrea Renda表示,私營企業在這些問題上做的工作最多。「私營企業正在對此採取行動,但政府可能發現這還不夠,」Renda說。在歐洲,歐盟正在制定道德準則,並可能通過「命令和控制立法,或通過認證和聯合監管」來執行這些準則。在美國,國會已經公布了兩黨共同制定的潛在監管原則,但聯邦監管可能會緩慢進行,目前尚不清楚議員們是否想要深入車禍的道德偏好這一泥沼。

Renda 警告說,儘管公眾需要參與到這些辯論中來,但「僅僅依靠自下而上的協商將是極其危險的。」他說,各國政府和專家需要做出選擇,重申人權。

但在德國,我們已經看到了新的問題。德國是目前唯一一個對自動駕駛汽車的倫理選擇提出官方指導方針的國家。議員們試圖剖析電車問題的棘手之處,指出所有人的生命都應該被平等對待,任何基於個人特徵的區別,如年齡或性別,都應該被禁止。

但正如MIT的研究人員指出的那樣,如果這一選擇得以實施,將有悖於公眾傾向於拯救年輕人多於老年人的偏倚。他們會問,如果政府推出這項政策,它將如何應對這種集體反對,「當自動駕駛汽車在道德困境中選擇犧牲兒童的那一天,這種抵制將不可避免地發生。」

Awad說,這種衝突是「不可避免的」,但必須成為這個過程的一部分。「重要的是要讓這些決定變得透明,」他說,「要公開說明正在做什麼。如果這一切都發生在幕後,只對人們說』相信我們』,我認為這是不會被接受的。每個人都需要參與到這些決策中來。」

原文連結:

https://www.theverge.com/2018/10/24/18013392/self-driving-car-ethics-dilemma-mit-study-moral-machine-results

新智元AI WORLD 2018

世界人工智慧峰會全程回顧

新智元於9月20日在北京國家會議中心舉辦AI WORLD 2018世界人工智慧峰會,邀請機器學習教父、CMU教授 Tom Mitchell,邁克思·泰格馬克,周志華,陶大程,陳怡然等AI領袖一起關注機器智能與人類命運。

全程回顧新智元 AI World 2018 世界人工智慧峰會盛況:?

愛奇藝?

上午:https://www.iqiyi.com/v_19rr54cusk.html?

下午:https://www.iqiyi.com/v_19rr54hels.html

新浪:http://video.sina.com.cn/l/p/1724373.html

本文首發於微信公眾號:新智元。文章內容屬作者個人觀點,不代表和訊網立場。投資者據此操作,風險請自擔。

(責任編輯:唐明梅 )

相關焦點

  • 當AI面對「電車難題」時會如何選擇?
    AI面對「電車難題」會如何選擇 「電車難題」是一個著名的思想實驗,其內容大致是:一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,並且片刻後就要碾壓到他們。而此時你可以選擇拉杆讓電車開到另一條軌道上。然而問題在於,另一個電車軌道上也綁了一個人。考慮以上狀況,你是否應拉杆?
  • 重讀電車難題:當無人車不得不殺人 誰決定誰生死
    【網易智能訊 9月24日消息】最近,「電車難題」這個一個廣為人知的道德倫理思想實驗,重新出現在人們的視野中。當未來由汽車來決定我們的生死時,這個難題將成為噩夢般的存在。然而,在許多研究自動駕駛汽車的專家眼中,關於電車難題的討論是過於偏激的。他們認為電車難題是譁眾取寵,而且也無關緊要的。但這種態度是不對的。由於自動駕駛汽車的出現,電車難題將得到解決。
  • 「電車難題」真有那麼難嗎?
    如果僅僅著眼於怎樣採取行動,那麼電車難題其實真沒什麼難的。通過課堂上的提問回答,桑德爾已經初步展示了人們對兩個問題給出不同答案的統計數據。在效率版的電車難題中,主流意見是允許司機「撞殺」一個人以拯救五個人,反對者屬於異類;而在公平版的電車難題中,主流意見是反對旁觀者「推殺」一個人以拯救五個人,贊同者屬於異類。
  • 「電車難題」不應成為自動駕駛技術發展的緊箍咒
    幸運的是,你可以拉一個拉杆,讓電車開到另一條軌道上。然而問題在於,那個瘋子在另一個電車軌道上也綁了一個人。考慮以上狀況,你是否應拉杆?如果以電車難題為基礎來一次發散思維,你確實能得到大量難以解答的問題。比如,自動駕駛汽車應該為了保行人而放棄駕駛員嗎?那麼事故當頭,老人和年輕人誰更應該做出犧牲?如果車輛能獲知附近駕駛員的信息,在車輛失控前它是否應該根據這些信息進行選擇性的碰撞?
  • 電車難題:你會怎麼做?
    他在這門課程的第一堂中提到當代思想史上一個著名的思想實驗:一輛剎車失靈的有軌電車的司機,應該選擇讓電車繼續前行、撞死軌道上的五個人,還是選擇轉動方向盤、撞死岔道上的一個人。 桑德爾教授所追問的,就是半個世紀之前英國哲學家菲利帕·富特(Philippa Foot)提出的電車難題,它以極為生動的形式,對西方倫理學的基本立場進行了解讀和批判。
  • 電車難題——一道經典的倫理哲學思考題!
    思想實驗其實很常見,你老婆問你,「她和你母親同時掉進水裡,你先救誰?」,這也是一個思想實驗。這道經典的先救誰難題,令男性同胞傷透了腦筋,回答的好還可以,答不好就送命。為什麼這道題這麼難回答,仔細思考一下,似乎已經不是先救誰的問題了,而是親情和愛情,哪一個更重要?同樣電車難題的難點在於是從功利主義救更多的人還是從道德主義不去傷害這個無辜的人?
  • 「電車難題」,公平到底該怎麼做?一個法理上的難題
    他在這門課程的第一堂中提到當代思想史上一個著名的思想實驗:一輛剎車失靈的有軌電車的司機,應該選擇讓電車繼續前行、撞死軌道上的五個人,還是選擇轉動方向盤、撞死岔道上的一個人。桑德爾教授所追問的,就是半個世紀之前英國哲學家菲利帕·富特(Philippa Foot)提出的電車難題,它以極為生動的形式,對西方倫理學的基本立場進行了解讀和批判。
  • 《自然》雜誌:面對「電車難題」,不同國家的人有不同的道德選擇
    編者按:電車難題原本只是一個思想實驗。但是無人車的發展卻繞不開這個問題。因為機器在無論如何都會撞死人的情況下必須靠預先植入的道德代碼做出判斷:該犧牲誰,該保誰。但是一項有全球230萬人參與的調查表明:這個問題並不存在普適性的道德選擇。這個問題的解決也許需要進行一場全球性的公開討論才能達成共識——或者永遠也無法達成共識。
  • 自然雜誌:面對「電車難題」,不同國家的人有不同的道德選擇
    編者按:電車難題原本只是一個思想實驗。但是無人車的發展卻繞不開這個問題。因為機器在無論如何都會撞死人的情況下必須靠預先植入的道德代碼做出判斷:該犧牲誰,該保誰。但是一項有全球230萬人參與的調查表明:這個問題並不存在普適性的道德選擇。這個問題的解決也許需要進行一場全球性的公開討論才能達成共識——或者永遠也無法達成共識。《自然》雜誌的一篇文章對此進行了綜述。
  • 「電車難題」的自然主義視角
    「有軌電車難題」是道德心理學研究中被反覆討論的思想實驗。它假設了這樣一種情形:你正駕駛一輛失去剎車的有軌電車,在軌道前方有五個正在施工的工人,如果電車繼續直行必然會致其死亡,而旁邊的軌道上只有一名工人,你選擇變換軌道撞向一個人,還是繼續直行撞向五個人?
  • 當無人車遇上著名的「電車難題」,它會怎麼辦?
    「電車難題」是一個倫理學領域的思想實驗,自1967年Phillipa Foot提出以來,大批哲學家對此樂此不疲。 五個無辜的人被綁在鐵軌上,一輛列車疾駛而來,他們死定了。除非你拉下列車控制杆,使列車朝另一個方向駛去,但那條軌道上有一個同樣無辜的人。拉下控制杆,你能拯救五條生命,但會犧牲另一個:你如何選擇才能不違背倫理?
  • 當無人車遇上著名的 「電車難題」 它會怎麼辦?
    拉下控制杆,你能拯救五條生命,但會犧牲另一個:你如何選擇才能不違背倫理?隨著時間的推移,這個問題演化出許多新版本,譬如:是選擇讓電車撞死五個人,還是把一個胖子推下去阻止列車前行(胖子也得死);還有一種,胖子恰巧就是這個把五位無辜者綁在軌道上的人,等等。如今,這個辯題因無人車的出現被賦予了新的生命。新的版本是:你的無人車將撞上一輛校車,它意識到它可以選擇殺死你或者拯救一車的孩子。
  • 現代社會的「電車難題」:自動駕駛系統在意外來臨時會撞向誰?
    如果是你,將怎樣選擇?」 聞名於哲學界的「電車難題(Trolley Problem)「在自動駕駛汽車時代」將不再只是一個哲學問題,而是每一個自動駕駛系統需要面對的真實問題,系統將決定在發生事故時撞向誰、保全誰。
  • 世界十大悖論之電車難題
    「電車難題」是倫理學領域最為知名的思想實驗之一,其內容大致是: 一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,並且片刻後就要碾壓到他們。
  • 《姜子牙》不是「電車難題」!請不要再用道德,譴責劇情的刻奇
    「電車難題」是在1967年經由菲利帕·福特提出的思想實驗(所謂思想實驗就是在腦海中通過邏輯推理去評判事情發展的對錯)。可以看到,「電車難題」的思想實驗如果用得好,確實能給劇情加分不少。 但問題來了:《姜子牙》果真是濫用電車難題的代表嗎?
  • 高人對功利主義的探析,那個歷史上著名的電車難題你解決了嗎?
    變化2:胖子難題,一輛失控的電車正在駛過來,軌道的遠方有5個人眼看就要被壓死。假設你恰好站在軌道上方的橋上,橋上有1個胖子,雖然你的身體無法攔住電車,但如果你將胖子推下去使其掉落在軌道上,其體重正好足以阻擋電車繼續前行從而拯救那5個人。你是否選擇犧牲胖子的生命來拯救那五個人?
  • 控辯大戰:閱讀《電車難題》(二)
    「電車案」類同於上述案子,因而瓊斯有罪;3. 「費城某器官移植案」詳情:被告人創傷外科醫生羅德尼·梅普斯在費城一家大型教學醫院工作。他接到通知趕往急診室。因高速公路發生交通事故,六名傷員被送往醫院。其中兩名需要腎移植,一人需要心臟移植,一人需要肝移植,一人需要肺移植。第六名傷員沒有明顯傷情。梅普斯判斷後於是將其推進手術室,摘取了他所有的器官,移植給上述五名病人,挽救了五人生命。
  • 《電車難題》:倫理情感難題該如何判定?
    一輛有軌電車失去了控制,前方軌道上有五個人,而旁邊岔道上也站著一個人,司機可以任憑電車繼續前進撞死前方的五個人,或將電車轉向到旁邊岔道上撞死另一個人。問題:司機是否應該改變電車行使軌道?這就是由英國哲學家菲莉帕·富特於1967年提出的「電車難題」,此後關於「電車難題」的討論一直在社會各界人士之間進行,至今都沒有一個結果。託馬斯·卡思卡特在其著作《電車難題》中模擬了一樁案例,從檢察官、辯方、心理學家、哲學家和普通人角度出發,探討了社會中不同身份、職業的人對案件的判斷。
  • 好書推薦之《電車難題》
    透過一次虛構的審判,首次將大名鼎鼎的「電車難題」巧妙而趣味盎然地予以全景式呈現。 ——《電車難題》 內容簡介 本書虛擬了一樁符合「電車難題」情境的事件及隨之而來的審判,檢控官、法官、被告、受害人家屬、陪審團、律師、媒體、大學師生、電視觀眾、論壇網友等各路人馬紛紛登場,各自表態,一場思維的激烈碰撞就此展開。
  • 電車難題大匯總 腦洞大開
    有軌電車難題(英語:Trolley problem),又稱電車問題,是一個倫理學的思想實驗。其大致內容是:假設你駕駛一輛自己無法使其停下來的有軌電車,即將撞上前方軌道上的5個檢修工人,他們根本來不及逃跑,除非你改變軌道。但是,備用軌道上卻有1個人,那麼,是否可以通過犧牲這一個人的生命而拯救另外五個人?大部分人的回答是「是」。此道德兩難涉及人對群體利益和個體利益之間的取捨。