電車難題:自動駕駛汽車的道德難題

2020-12-04 蛋殼花生

1、智能汽車的道德難題

著名的科幻作家阿西莫夫,在他的《機器人系列》裡面,提出了影響力極大的機器人三定律。

第一定律,機器人不得傷害人類,或者因不作為而使人類受到傷害。

第二定律,除非違背第一定律,否則機器人必須服從人類的命令。

第三定律,在不違背第一及第二定律下,機器人必須保護自己。

這三大定律定義非常嚴密,邏輯也嚴謹,而且層層遞進,所以甚至於影響了人工智慧的一些發展的軌跡。

但是,今天人工智慧領域的發展,卻遇到了這三大定律無法解決的問題。

那就是電車難題的升級版——自動駕駛汽車的選擇難題。

具體的場景比如這樣,一輛自動駕駛的汽車在路上行駛,這時候突然冒出來一個人橫穿馬路,這時候人工智慧檢測到了這個意外,但是剎車已經來不及了,這時候它就面臨了一個選擇。

如果不轉向,那麼會撞死行人,如果轉向,那麼乘客會死於翻車。

這時候自動駕駛智能應該如何選擇呢?

阿西莫夫的三大定律,第一條就在這裡卡著了。

那很多人會說,阿西莫夫後來不是加了第零定律嘛,那就是機器人不得傷害人類種族,或因不作為而讓人類種族受到傷害。

這第零條定律,就是讓人類利益最大化,延續種族的傳承。

但是這個判斷和辨別又是一個難題了。

2、功利主義算法

比如孩子和老人、多人和單人、女人和男人、人和動物等等,當這些選項出現以後,每一家開發自動駕駛的公司,都得面臨這個選擇。

如果按照阿西莫夫的第零定律,那麼孩子優先、人多優先、女人優先、精英優先,人比動物優先,因為這是赤裸裸的效用主義。

也就是說,哪一方對整個人類社會的發展,起的效用越高,那麼就保留哪個選項。

如果人工智慧自動駕駛,必須要編一個選擇程序優先級,我想這個效用等級應該是最多人支持的。

事實也是如此,研究發現效用主義是絕大多數人支持的算法。

畢竟對於我們每個人來說,做出選擇是一輩子都在做的事情,我們時刻會面臨一些兩難的選擇,而放棄哪個,選擇哪個,從來都是功利主義的。

所以真的發生了這麼一個選擇,自動駕駛用這個算法做了選擇,我們絕大部分人都是能夠接受的。

但是,問題來了。

我們能夠接受,並不代表我們會去買。

我們想買的其實是,不管任何情況,都優先保護我們自己,保護乘客的汽車,而不是說要是遇到兩個小孩子橫穿馬路,就會把我自己搞死的汽車。

所以真要是用這種算法生產了汽車,最後根本就不會有人買。

因為我們人類都是矛盾的,己所不欲勿施於人這句話反過來,才是人性的真相。

3、未來的走向

那怎麼辦呢?自動駕駛就永遠上不了路了嘛?

那也未必,人工智慧專家說,既然兩個選擇都是錯,那就避免遇到這種選擇嘛。

於是自動駕駛的汽車,就在處理速度、距離、路況、天氣等等信息的收集和處理上下功夫,並用各種傳感器和雷達進行感知,提前計算出所有處理方案。

這樣那些難以抉擇的道德難題,就變成了假難題。

第二種思路,王爍老師給了我很大的啟發,那就是不斷尋找和更換和困境並存的策略。

什麼意思呢,就是人類歷史上經常會遇到很多根本沒有正解的問題,但是又不得不做解決。

那麼最好的策略就是,先用一個,然後等人性的反擊,當怨念和憤怒積累到了一定程度以後,在更換一個相反的,繼續等怨念的積累。

如此不斷的循環,就可以讓難題和答案一直並存了。

所以未來汽車裡面的算法,就可以用幾種綜合的算法先實行,然後等出問題多了,大眾開始反擊了,在更換成下一種。

反正,這種事情,我們在歷史中沒少幹。

相關焦點

  • 自動駕駛汽車的「電車難題」:缺少通用道德準則
    自動駕駛的支持者和批評者,都喜歡拋出一個問題 —— 當碰撞不可避免的時候,誰應該接管車輛的駕駛操作、誰又該被撞死?為了解公眾對此事的態度,麻省理工學院決定對來自不同國家、地區、文化、社會團隊的 230 萬人進行採訪。結果發現,他們對回答不盡相同。
  • 當自動駕駛遇上「電車難題」
    汽車自主行為是一系列複雜的評估和決策過程的自然結果,無法為我們作出正確的道德選擇,人們也無法對自動駕駛汽車完全信任。 讓自動駕駛汽車製造商擔責,鼓勵人們了解其運行機制,才能慢慢找到解決自動駕駛汽車式「電車難題」的方案。
  • 現在自動駕駛出車禍 更像是「酒駕」,無關「電車難題」
    電車難題除了作為一個哲學實驗外,還被用作心理學實驗中的一種工具——最近,人們已經把它當作衡量自動駕駛汽車的道德標準了。自動駕駛汽車應該優先保護行人還是先保護乘客?那老人與小孩相比呢?如果汽車可以獲得與車禍發生相關的信息,它是否應該使用這些數據來做出決定?電車難題已經在自動駕駛汽車領域流行起來了。
  • 自動駕駛技術研發不可逾越的鴻溝:「電車難題」
    (原標題:自動駕駛技術研發不可逾越的鴻溝:「電車難題」)
  • 「電車難題」的「道德物化」解法
    如果一個可以控制拉杆(扳道岔)的人,因為自己的行為導致無辜的人死亡,無論死五個人還是一個人,都是有道德缺陷的。甚至他無所作為也不道德,因為這等於他放任這些人面臨死亡。「電車難題」提出後,又出現了不少類似版本,都創設了無論選擇怎樣做都存在道德缺陷的情景。  隨著人工智慧無人駕駛技術的發展,「電車難題」重新引起熱議。
  • 【快評】自動駕駛的「電車難題」是一個錯誤的提問
    在聽過與會發言之後,賽迪智庫政法所的專家介紹了對自動駕駛面臨的「電車難題」的幾點看法:自動駕駛的「電車難題」通常是這樣一類問題:如果一輛自動駕駛汽車的前面兩個不同方向上有不同的人,比如一個方向是老人另一個方向是婦女,一個方向有1個人另一個方向有5個人等等,這輛自動駕駛汽車如果無法躲避,應當做出何種選擇,依靠何種算法規則做選擇,以及如果造成損害應當承擔何種責任。
  • 「電車難題」不應成為自動駕駛技術發展的緊箍咒
    說起自動駕駛,許多人就會不自覺的聯想到上世紀 70 年代誕生的經典電車難題,這個倫理學領域最為知名的思想實驗正在成為整個行業不斷前進的絆腳石。因此,現在我們是不是該向前看,把這個問題徹底翻篇,不要再用這一道德問題來拷問自動駕駛汽車了?所謂的電車難題內容大致是:一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,並且片刻後就要碾壓到他們。
  • 倫理學家靠邊站 ,律師才是解決自動駕駛「電車難題」的定海神針
    幸運的是,你可以拉一個拉杆,讓電車開到另一條軌道上。然而問題在於,那個瘋子在另一個電車軌道上也綁了一個人。考慮以上狀況,你是否應拉杆?在自動駕駛時代即將來臨時,這個倫理學實驗有了新的意義。如果遇到類似的難題,自動駕駛汽車是選擇保護乘客,義無反顧撞向五名路人呢?還是保護路人犧牲乘客?顯然,這個決定不應該由自動駕駛汽車來做。
  • 自動駕駛「電車難題」如何解?不同的文化給出不同的答案
    人工智慧的發展已經不可阻擋,自動駕駛成為現實的一天也離我們越來越近。但在那之前,除了還有技術上的障礙需要克服,我們在享受自動駕駛帶來的便利前,可能還須先解決一個也許比技術問題更難解決的倫理問題:自動駕駛領域的「電車難題」。交通事故的發生一直以來都是一個概率事件。
  • 現代社會的「電車難題」:自動駕駛系統在意外來臨時會撞向誰?
    聞名於哲學界的「電車難題(Trolley Problem)「在自動駕駛汽車時代」將不再只是一個哲學問題,而是每一個自動駕駛系統需要面對的真實問題,系統將決定在發生事故時撞向誰、保全誰。
  • 自動駕駛的道德問題是真實存在的,但未必就是「電車難題」
    目前來看,人工智慧的實際應用中一個非常宏偉也非常有前景的領域就是——自動駕駛。自動駕駛有望將人類從駕駛汽車,這個最不安全也是最浪費時間精力和各種資源的領域解放出來,將帶來整個汽車行業乃至整個社會形態的革命。然而自動駕駛的安全性疑慮和呼聲一直不小:總有很多人不放心將自己的性命寄託於一臺機器上。
  • 目前無解的道德難題:電車難題及其延伸問題
    兩種情況下的電車道德難題01想像一下:你駕駛著一輛電車在一條鐵軌上飛馳。有5個修理工在鐵軌上施工,顯然,他們並沒有注意到有一輛電車朝他們撞過來。你本能地踩下剎車,沒想到關鍵時候,電車的制動系統失靈了。千鈞一髮之際,你發現有一條側軌,側軌上只有1個修理工,且電車的方向盤沒有壞,那麼問題來了:你會為了救5個人而轉動方向盤,讓電車駛向側軌嗎?這就是經典的電車難題,也稱電車撞人悖論。大多數人表示,如果自己是那位電車司機,會選擇變軌。
  • 重讀電車難題:當無人車不得不殺人 誰決定誰生死
    【網易智能訊 9月24日消息】最近,「電車難題」這個一個廣為人知的道德倫理思想實驗,重新出現在人們的視野中。當未來由汽車來決定我們的生死時,這個難題將成為噩夢般的存在。然而,在許多研究自動駕駛汽車的專家眼中,關於電車難題的討論是過於偏激的。他們認為電車難題是譁眾取寵,而且也無關緊要的。但這種態度是不對的。由於自動駕駛汽車的出現,電車難題將得到解決。
  • 當AI面對「電車難題」時會如何選擇?
    AI面對「電車難題」會如何選擇 「電車難題」是一個著名的思想實驗,其內容大致是:一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,並且片刻後就要碾壓到他們。而此時你可以選擇拉杆讓電車開到另一條軌道上。然而問題在於,另一個電車軌道上也綁了一個人。考慮以上狀況,你是否應拉杆?
  • 道德永遠是個「難題」——電車難題、自利與理性
    電車難題的無奈答案在《蝙蝠俠:黑暗騎士 》中,小丑劫持了兩艘緊急疏散城市人口的渡輪,一艘船上是普通公民,另一艘船上是囚犯。就這樣,諾蘭把哲學史上著名的電車難題,搬到了商業電影的熒幕上:一輛電車即將撞上兩群人,一邊人更多,一邊人更少,你手裡掌握著決定電車方向的軌道控制器,你會如何選擇?
  • 「電車難題」的自然主義視角
    道德心理學作為一種自然主義的道德研究路徑,正蔚然成風,而其興起和盛行是填補道德問題本質與傳統倫理學研究方法之間鴻溝的必然所向。  「有軌電車難題」是道德心理學研究中被反覆討論的思想實驗。它假設了這樣一種情形:你正駕駛一輛失去剎車的有軌電車,在軌道前方有五個正在施工的工人,如果電車繼續直行必然會致其死亡,而旁邊的軌道上只有一名工人,你選擇變換軌道撞向一個人,還是繼續直行撞向五個人?
  • 自動駕駛技術讓機器的道德困境提前到來 算法要如何在生命與財產...
    不過,伴隨著阿里百度等企業的入局,自動駕駛技術作為出行風口,由於可以在弱人工智慧下,依託於複雜的傳感器陣列和完善的電腦算法而實現,已經離我們越來越近。相對的,我們為人工智慧所設想的機器人道德倫理難題,也必然將在自動駕駛技術的落地之後,被更早地提到人們的面前。
  • Nature大型調查:當AI遭遇電車難題,它將拯救誰?
    來源:the Verge編輯:三石,肖琴【新智元導讀】隨著自動駕駛汽車的普及,其安全性問題被社會廣泛關注。人類在遇到車禍時會本能的對「先救誰」進行選擇,而若是以編程形式讓自動駕駛汽車也具有這樣的功能,道德決策又將如何選擇?
  • 一直備受爭議的電車難題!
    這就是「電車難題」。它是哲學家菲力帕芙特,在1967年設計的道德困境的一個版本,它很受歡迎。因為它迫使我們思考?如何在進退兩難的情況下作出選擇,我們應選擇的究竟是結果最好的行為,還是堅持道德標準,不讓另一個人死亡?
  • 從法律角度解「電車難題」,原來如此簡單
    「電車難題」是倫理學領域內最為著名的思想實驗之一,大致內容可概括為:一輛有軌電車駛來,前方的軌道上有5個人,片刻之後這5個人就會被電車碾壓致死;此時你手邊有一個拉杆,拉動之後電車會變道,這5個人可以倖免於難,但變道後的軌道上也有1個人,這個人將被電車碾壓致死。考慮以上情形,你是否應該拉動拉杆?