自動駕駛「電車難題」如何解?不同的文化給出不同的答案

2020-12-04 DeepTech深科技

人工智慧的發展已經不可阻擋,自動駕駛成為現實的一天也離我們越來越近。但在那之前,除了還有技術上的障礙需要克服,我們在享受自動駕駛帶來的便利前,可能還須先解決一個也許比技術問題更難解決的倫理問題:自動駕駛領域的「電車難題」。

交通事故的發生一直以來都是一個概率事件。在方向盤掌握在人類手中的時候,當事故發生時,駕駛員作出的決策是基於現場的狀況、過往的駕駛經驗,還有很大一部分是瞬間發生的本能反應,同時,人類駕駛員也將為其決策承擔可能的社會和法律責任。

但在依賴程序做決策的自動駕駛領域,我們需事先就教會程序如何進行選擇,這時我們就不得不事先作出選擇:當事故無法避免時,誰的安全應該放在首位?這背後的原因又該如何解釋?

10 月 24 日,一篇來自麻省理工學院的論文,探討了全世界不同地區和文化的人們對這個倫理問題的看法。該論文整理了 2016 年一個叫做「道德機器」(Moral Machine)的在線測試的數據。該測試要求用戶回答關於車禍發生時的一系列道德問題。類似於此前著名的「電車難題」:你是選擇讓失控的電車撞上鐵軌上的 5 個人,還是拉動拉杆,讓電車換到側軌撞死 1 個無辜的路人?

「道德機器」對 9 個不同的影響因素進行了測試,例如,車禍發生時是選擇撞男性還是女性?撞多數人還是少數人?年輕人還是老年人?守規則的行人還是亂穿馬路的人?甚至是選擇社會地位高的人還是社會地位低的人?

來自 233 個國家和地區的數百萬用戶參與了這項道德測試,在最後收回的約 4000 萬個答案中,研究人員發現了一些全球一致的傾向,例如:當發生事故時,所有人都一致的表現出更偏向救人類而非動物、救更多的人、救兒童而非成年人。

(來源:麻省理工科技評論)

該項調查的研究人員認為,這份調查中涉及的一些因素可為政府在給自動駕駛汽車制定法律時提供參考。但同時,論文作者之一 Edmond Awad 也表示他們的研究僅是了解公眾在這個倫理問題面前會作何選擇,若要從規範倫理學的角度來思考這個問題怎麼解決,那得交給專家。

「道德機器」得到的結果還顯示:不同國家的道德偏好存在著顯著差異。導致這些差異的原因與很多因素有關,包括地理因素,如歐洲和亞洲國家之間存在差異;文化因素,比如個人主義文化和集體主義文化間的差異。

加州理工大學倫理學主任 Patrick Lin 表示,「自動駕駛汽車將是第一個大規模融入社會的 AI 技術,將會給其他 AI 技術和機器人技術的應用定下基調,因此這個倫理問題尤其需要理性的討論。」

文化差異如何影響道德選擇?

「道德機器」統計結果表明在不同文化下的的人們在部分選擇上有一致的傾向,但儘管傾向一致,不同的文化背景可能會造成傾向程度的差異。

比如,研究人員發現,在東亞和中東地區,例如中國、日本和沙烏地阿拉伯的人們在選擇救年輕人還是老年人這個問題上,傾向於保護年輕人的比例相對較低。並且這些亞洲國家相對於歐美國家來說,對救高收入人群的偏好要少一些。研究人員認為這之間的差異可能是源於個人主義和集體主義之間的文化差異。個人主義更強調個體的價值,而相比之下,集體主義對年輕人偏好較弱,也更多體現出對老年人的尊重。

圖|相比之下,亞洲國家和地區更偏向於保護老年人 (來源:麻省理工科技評論)

研究還發現,在地理和文化上相近的人們在自動駕駛倫理問題上的意見也更相近。但有些與地理位置無關的因素也會影響人們的道德選擇。如 GDP 較低的國家,人們在選擇救守規則行人還是不守規則的行人這個問題上,沒有表現出太大的傾向性。這也反映出這些國家可能規則意識較弱,違反規則的處罰也較輕。

值得注意的是,設計「道德機器」的作者強調,這些數據無法明確地得出不同國家和地區人們在這類問題上的道德偏好。因為能夠參與到測試的人們是需要具備上網能力的,所以這些參與者的代表性可能不足。此外,用戶在測試中僅有兩個簡單的選項:「撞這群人」還是「撞那群人」。但在現實生活中,發生事故的概率和嚴重性都不同,道德選擇也會根據具體的情況而定。

圖|在傾向於保護行人還是乘客安全問題上,中國明顯的體現出保護車內乘客的傾向(來源:麻省理工科技評論)

儘管如此,專家們表示,這類測試還是有價值的。這些道德困境的設計能夠避免其他變量的幹擾而專注於單一的特定變量,引起我們的思考。Patrick Lin 表示,即使汽車不會經常在撞 A 還是要撞 B 之間進行選擇,但它們仍然需要在其他問題上進行權衡,比如在面對不同類的人時,留多大的安全距離才算合適?這個問題歸根結底也是倫理問題,所以我們現在就需要思考這些尖銳的倫理難題。

法律條文能否解決這類倫理問題?

那麼立法者何時會將自動駕駛的倫理道德規範寫入法律法規?自動駕駛汽車公司什麼時候才能將它們寫入程序呢?

其實第二個問題早有答案,科技公司在算法寫入時就已有了大致的偏好,但其中一部分決定可能會產生倫理爭議,因此他們並不樂意公開討論這類敏感話題。

例如,早在 2014 年,Google X 創始人 Sebastian Thrun 曾表示,他們的自動駕駛汽車在發生碰撞需要二選一時,會選擇撞擊體積更小的一方。Sebastian Thrun 還曾表示,谷歌的自動駕駛汽車會儘可能保護行人和騎行者,因為他們的保護措施更少。同在 2014 年,一名來自梅賽德斯奔馳的管理人員曾表示,他們的自動駕駛汽車在事故中會把駕駛員和乘客的安全放在首位,但隨後又否認了這個說法。

這些企業對自動駕駛倫理問題的模糊態度是可以理解的,因為一方面,他們的技術還遠未成熟到能夠精準分辨年輕人和老年人;另一方面,他們在表示偏向保護一部分人的時,總會得罪另一部分人。這也正是自動駕駛倫理困境的複雜之處。

(來源:MORAL MACHINE)

歐洲政策研究中心的高級研究員 Andrea Renda 表示,目前私營企業在這些倫理問題上做的工作最多,但這還不夠,歐盟正在制定相關的道德準則,未來或將通過立法來實施。而在美國,國會已經公布了一些監管原則,但還未進入到立法程序。

Andrea Renda 警告道,僅靠政府制定相關法律是很危險的,公眾需要儘可能地參與到關於自動駕駛汽車倫理選擇的問題辯論中,政府和專家在做決定時也需要再三考慮人權因素。

德國是迄今為止唯一一個在自動駕駛汽車倫理選擇上給出官方指導意見的國家。德國立法者表示所有人的生命都應該被平等地重視,並且應該禁止根據性別、年齡等因素來做選擇。

然而,「道德機器」的研究團隊認為,如果在自動駕駛汽車倫理選擇這個問題上沒有傾向性,那也就意味著程序作出的決策會違背大眾的意願。比如就公眾更傾向於救年輕人而不是老年人這個選擇上,如果車禍造成了兒童遇難,那麼政府又將如何應對來自民眾的輿論壓力呢?

Andrea Renda 認為,在討論自動駕駛的道德倫理問題時,衝突是不可避免的,這是得出最終結果的必經之路。

可以確定的是,一個「黑箱」的結果是難以被大眾接受的,程序在車禍發生時的決策過程應向公眾開放,更重要是,每個人都應參與進來,為這個與我們每個人性命攸關的決策投出自己的一票。

所幸的是,自動駕駛技術目前還處於起步階段,到真正的普及還有很長的路要走,這給政府和公眾留下較為充足的時間來對這一道德問題進行探討和辯論。

相關焦點

  • 當自動駕駛遇上「電車難題」
    汽車自主行為是一系列複雜的評估和決策過程的自然結果,無法為我們作出正確的道德選擇,人們也無法對自動駕駛汽車完全信任。 讓自動駕駛汽車製造商擔責,鼓勵人們了解其運行機制,才能慢慢找到解決自動駕駛汽車式「電車難題」的方案。
  • 現在自動駕駛出車禍 更像是「酒駕」,無關「電車難題」
    電車難題除了作為一個哲學實驗外,還被用作心理學實驗中的一種工具——最近,人們已經把它當作衡量自動駕駛汽車的道德標準了。自動駕駛汽車應該優先保護行人還是先保護乘客?那老人與小孩相比呢?如果汽車可以獲得與車禍發生相關的信息,它是否應該使用這些數據來做出決定?電車難題已經在自動駕駛汽車領域流行起來了。
  • 電車難題:自動駕駛汽車的道德難題
    那就是電車難題的升級版——自動駕駛汽車的選擇難題。具體的場景比如這樣,一輛自動駕駛的汽車在路上行駛,這時候突然冒出來一個人橫穿馬路,這時候人工智慧檢測到了這個意外,但是剎車已經來不及了,這時候它就面臨了一個選擇。如果不轉向,那麼會撞死行人,如果轉向,那麼乘客會死於翻車。
  • 【快評】自動駕駛的「電車難題」是一個錯誤的提問
    在聽過與會發言之後,賽迪智庫政法所的專家介紹了對自動駕駛面臨的「電車難題」的幾點看法:自動駕駛的「電車難題」通常是這樣一類問題:如果一輛自動駕駛汽車的前面兩個不同方向上有不同的人,比如一個方向是老人另一個方向是婦女,一個方向有1個人另一個方向有5個人等等,這輛自動駕駛汽車如果無法躲避,應當做出何種選擇,依靠何種算法規則做選擇,以及如果造成損害應當承擔何種責任。
  • 「電車難題」不應成為自動駕駛技術發展的緊箍咒
    事實上,電車難題在自動駕駛圈已經是個繞不開的話題,麻省理工的工程師甚至專門眾籌了一個「道德機器」,旨在編寫一個意見目錄,以解決未來機器人在特定情況下該作何反應的問題。不過,幾十年來都沒有答案的電車難題其實本身就有個漏洞。
  • 現代社會的「電車難題」:自動駕駛系統在意外來臨時會撞向誰?
    網優僱傭軍) 但是當自動駕駛系統達到「全自動駕駛」時,系統的開發者就要認真考慮多種兩難的情境:當自動駕駛汽車處於「電車難題」情況下要怎樣選擇?在極端情況下,自動駕駛系統會選擇拯救年長者還是拯救青少年?而當不可避免的事故發生時,法律將怎樣判定肇事責任? 意外來臨時,人類會如何選擇?
  • 自動駕駛汽車的「電車難題」:缺少通用道德準則
    自動駕駛的支持者和批評者,都喜歡拋出一個問題 —— 當碰撞不可避免的時候,誰應該接管車輛的駕駛操作、誰又該被撞死?為了解公眾對此事的態度,麻省理工學院決定對來自不同國家、地區、文化、社會團隊的 230 萬人進行採訪。結果發現,他們對回答不盡相同。
  • 自動駕駛技術研發不可逾越的鴻溝:「電車難題」
    (原標題:自動駕駛技術研發不可逾越的鴻溝:「電車難題」)
  • 從法律角度解「電車難題」,原來如此簡單
    「電車難題」難在它觸碰了人類的倫理底線、道德底線,讓人不停地拿不同數量的生命作比較,但又無法拋下生命皆平等的倫理觀念。而且它幾乎囊括了倫理、道德、哲學、社會學等多個思想領域,即使作為一個普通人,僅僅就這一個問題思考上個把月怕也沒有什麼問題,問題是永遠想不出一個說服自己的答案。那我們不妨換一個角度。
  • 倫理學家靠邊站 ,律師才是解決自動駕駛「電車難題」的定海神針
    幸運的是,你可以拉一個拉杆,讓電車開到另一條軌道上。然而問題在於,那個瘋子在另一個電車軌道上也綁了一個人。考慮以上狀況,你是否應拉杆?在自動駕駛時代即將來臨時,這個倫理學實驗有了新的意義。如果遇到類似的難題,自動駕駛汽車是選擇保護乘客,義無反顧撞向五名路人呢?還是保護路人犧牲乘客?顯然,這個決定不應該由自動駕駛汽車來做。
  • 自動駕駛的道德問題是真實存在的,但未必就是「電車難題」
    這種懷疑也衍生出了很多不同的版本,其中最有趣的就是傳統道德哲學中的「電車問題」在新時代的翻版:自動駕駛的道德問題。道德問題的源起如果一輛自動駕駛的汽車遇到了這樣一個困境:在馬上就要出車禍的當下,左邊是一個老人,右邊是五個孩子,它應該怎麼判斷,如何選擇行動?我們應該將這種道德判斷納入自動駕駛系統開發的考量嗎?首先,我們可以先回顧一下這個道德問題的源起。
  • 「電車難題」的「道德物化」解法
    「電車難題」提出後,又出現了不少類似版本,都創設了無論選擇怎樣做都存在道德缺陷的情景。  隨著人工智慧無人駕駛技術的發展,「電車難題」重新引起熱議。如果在這種情況下,無人駕駛的電車應走哪一條軌道,事先需要如何設定程序?再進一步設想,如果無人駕駛汽車行駛途中出現意外情況,不能兼顧乘客安全和車外行人安全時,人工智慧系統應如何進行決策?
  • Nature大型調查:當AI遭遇電車難題,它將拯救誰?
    這道世紀難題令多少英雄好漢競折腰,那麼如果讓自動駕駛汽車通過程序自行判斷,結果又將如何呢?隨著自動駕駛的普及,人們在享受便利與高效的同時,也必須考慮自動駕駛的安全性問題。這對社會來說也無疑是增添了一份負擔:對汽車進行編程,在發生交通事故的時候,使其具備優先拯救哪些生命的能力。在這種情況下,人類駕駛員肯定會本能地去選擇先救誰,但是對於算法來說,這道選擇題應當是提前就有答案了的。那麼汽車公司和政府又會做出怎樣的選擇呢?
  • 當AI面對「電車難題」時會如何選擇?
    AI面對「電車難題」會如何選擇 「電車難題」是一個著名的思想實驗,其內容大致是:一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,並且片刻後就要碾壓到他們。而此時你可以選擇拉杆讓電車開到另一條軌道上。然而問題在於,另一個電車軌道上也綁了一個人。考慮以上狀況,你是否應拉杆?
  • 重讀電車難題:當無人車不得不殺人 誰決定誰生死
    【網易智能訊 9月24日消息】最近,「電車難題」這個一個廣為人知的道德倫理思想實驗,重新出現在人們的視野中。當未來由汽車來決定我們的生死時,這個難題將成為噩夢般的存在。然而,在許多研究自動駕駛汽車的專家眼中,關於電車難題的討論是過於偏激的。他們認為電車難題是譁眾取寵,而且也無關緊要的。但這種態度是不對的。由於自動駕駛汽車的出現,電車難題將得到解決。
  • 自動駕駛技術讓機器的道德困境提前到來 算法要如何在生命與財產...
    不過,伴隨著阿里百度等企業的入局,自動駕駛技術作為出行風口,由於可以在弱人工智慧下,依託於複雜的傳感器陣列和完善的電腦算法而實現,已經離我們越來越近。相對的,我們為人工智慧所設想的機器人道德倫理難題,也必然將在自動駕駛技術的落地之後,被更早地提到人們的面前。
  • 《自然》雜誌:面對「電車難題」,不同國家的人有不同的道德選擇
    編者按:電車難題原本只是一個思想實驗。但是無人車的發展卻繞不開這個問題。因為機器在無論如何都會撞死人的情況下必須靠預先植入的道德代碼做出判斷:該犧牲誰,該保誰。但是一項有全球230萬人參與的調查表明:這個問題並不存在普適性的道德選擇。這個問題的解決也許需要進行一場全球性的公開討論才能達成共識——或者永遠也無法達成共識。
  • 自然雜誌:面對「電車難題」,不同國家的人有不同的道德選擇
    編者按:電車難題原本只是一個思想實驗。但是無人車的發展卻繞不開這個問題。因為機器在無論如何都會撞死人的情況下必須靠預先植入的道德代碼做出判斷:該犧牲誰,該保誰。但是一項有全球230萬人參與的調查表明:這個問題並不存在普適性的道德選擇。這個問題的解決也許需要進行一場全球性的公開討論才能達成共識——或者永遠也無法達成共識。《自然》雜誌的一篇文章對此進行了綜述。
  • 撞一個人還是撞五個人,自動駕駛汽車如何選擇?
    原標題:撞一個人還是撞五個人,自動駕駛汽車如何選擇? 電車難題是一個非常著名的倫理難題,它設置了一個這樣的場景: 你駕駛著一輛電車行駛在軌道上。在它的前方,有五個人被綁在軌道上不能逃脫。如果電車繼續行駛,就會碾壓到他們。
  • 道德永遠是個「難題」——電車難題、自利與理性
    電車難題的無奈答案在《蝙蝠俠:黑暗騎士 》中,小丑劫持了兩艘緊急疏散城市人口的渡輪,一艘船上是普通公民,另一艘船上是囚犯。就這樣,諾蘭把哲學史上著名的電車難題,搬到了商業電影的熒幕上:一輛電車即將撞上兩群人,一邊人更多,一邊人更少,你手裡掌握著決定電車方向的軌道控制器,你會如何選擇?