自動駕駛的道德問題是真實存在的,但未必就是「電車難題」

2020-12-10 雷鋒網

雷鋒網按:本文作者臺伯河,已授權雷鋒網編輯與發布。

這一次人工智慧的狂飆突進很有可能是真的。

技術和基礎設施的進步讓人工智慧真的可以投入到實際應用中去。目前來看,人工智慧的實際應用中一個非常宏偉也非常有前景的領域就是——自動駕駛。

自動駕駛有望將人類從駕駛汽車,這個最不安全也是最浪費時間精力和各種資源的領域解放出來,將帶來整個汽車行業乃至整個社會形態的革命。

然而自動駕駛的安全性疑慮和呼聲一直不小:總有很多人不放心將自己的性命寄託於一臺機器上。這種懷疑也衍生出了很多不同的版本,其中最有趣的就是傳統道德哲學中的「電車問題」在新時代的翻版:自動駕駛的道德問題。

道德問題的源起

如果一輛自動駕駛的汽車遇到了這樣一個困境:在馬上就要出車禍的當下,左邊是一個老人,右邊是五個孩子,它應該怎麼判斷,如何選擇行動?我們應該將這種道德判斷納入自動駕駛系統開發的考量嗎?

首先,我們可以先回顧一下這個道德問題的源起。

「電車問題」是道德哲學的一個經典問題:如果說開來一輛火車,前面是兩條岔路,你手頭有一個扳道岔,你如果不扳,火車就會走原路撞死五個人;如果你扳了,火車就會走上岔路撞死一個人。請問你是扳還是不扳呢?

這就是傳統道德哲學所爭論的核心:功利主義和絕對主義的區隔。

功利主義說:當然是死一個人要比死五個人好;絕對主義則說:你扳道岔的動作等於是殺死了一個原本不會死的人,所以並沒有哪個比哪個更好!這些爭論持續了好幾代人的時間,電車問題也出現了無數個不同的版本,直到如今這個自動駕駛的時代,仍然會有人問與之相似的問題。

但這裡的問題自然就是:一種絕對的,抽象化的道德問題,是否適用於具體的情境分析?傳統的道德哲學適用於我們對具體問題的判斷嗎?或許我們要引入現代的認知科學的研究結論。

長久以來,古典意義上的道德哲學家都基於理性來推導道德的實在性。他們認為人類是通過理性來判斷道德問題的,功利主義或者絕對主義,都是理性基礎上的爭論。然而現代認知科學告訴我們:人類對道德的判斷根本就不是通過理性做出的。

心理學家丹尼爾·卡尼曼在那本著名的《思想快與慢》中指出,人類的大腦分成兩個系統:

依賴直覺的系統1,與理性的系統2。系統1反應非常快,不需要我們投入多少關注就能夠完成任務,比方說遊泳,騎車,或者認臉;而系統2則需要人的有意努力才能夠工作,理性的「思考」,也就是「想」,是系統2的任務,它精確卻緩慢,耗能很高。

喬納森·海特在認知科學著作《正義之心》中表示:之前的道德哲學家往往將道德視作理性的結果,也就是說,是系統2的任務;但是心理學實驗表明,道德在人類的實際認知中,很大程度上(並非是完完全全的)是系統1的工作;而系統2隻起到了一點「事後辯護」的工作。

他做了一個實驗:加大實驗對象的系統2負擔,比方說記住一個很大的數字,然後再做道德判斷,結論是在系統2不堪重負的情況下做道德判斷仍然很快,這說明道德判斷不是系統2的工作。

所以說,人類做出道德判斷,實際上是基本訴諸直覺的。

在這裡,我們可以將自動駕駛的道德問題拿來考驗人類駕駛員。在一個實際的場景中,你就會發現這樣的一個理想假設問題是毫無意義的:在即將出車禍的危急時刻,人類是依靠本能來反應,99%的人類司機都不會在這個時候思索一些複雜的諸如「該撞哪邊」這樣的道德哲學問題——那麼我們為什麼會要求機器來完成這種人類都完不成的事情?

回到現實,就會發現目前這樣的給自動駕駛所提出的道德問題實際上毫無意義。

現實生活中並不會出現你剛好站在一個扳道岔,前面是一輛沒有剎車的火車這樣的情況;同樣,現實的交通中同樣也不會出現一條筆直的高速公路,前面是一堵牆,左邊是一位老奶奶,右邊是一個小學生,就看你要撞誰這樣的情況。

現實中的交通場景,我們只能規約到現實的條件中來:車輛輪胎的抓地力如何?剎車情況如何?路面是否溼滑?左右行人距離和方向?臨車位置?

這一切都要納入考量,然後讓人工智慧來判斷最優的解決方案——在99.999%的情況下我相信機器的解決方案都比人更優,因為機器不會走神,不會酒駕,不會打瞌睡,永遠警惕。

況且,在正常駕駛中機器顯然不會出車禍,而出車禍顯然是機器遇到了故障,這也就意味著你要讓一臺機器出了故障的情況下正常工作——這基本就等價於停機問題:你如何能夠要求一臺計算機去預測它的停機時間?

我認為「自動駕駛的道德問題」實際上真的存在,但完全不是我們所看到的這種「要撞誰」的天真問題:自動駕駛的道德問題實際上只有一個:我們應不應該儘快普及自動駕駛。

如何降低死亡率,是最大的道德問題

全世界每年因交通事故死亡人數超過百萬,中國每年交通事故死亡超過25萬,佔四分之一。如何降低這個數字,就是最大的道德問題。

而統計結果表明,交通事故有70%是人為因素;考慮到很多原因實際上是人類自身的生理限制,純粹的機械因素在交通事故中的佔比應該還要更低。我們甚至可以這樣說:在交通中最危險的不是任何一種機器,而是人類自己。

所以,目前自動駕駛最大的道德問題在於,我們對於人類駕駛和對於自動駕駛的態度是完全的雙重標準:

我們對於自動駕駛的看法是,在自動駕駛系統能夠保證100%不出錯之前都不能使用它——這個標準自然是不可能達到的,世界上沒有完美的東西。而對於人類駕駛的標準——其實是沒有標準。

如果我們統一標準,將自動駕駛的標準設定為「統計意義上人類司機的平均水平」,那我相信這一標準早就達到了。現在我們看到業界對於自動駕駛系統的開發,無非是在「超過95%以上人類司機的水平」還是「超過99%以上人類司機的水平」上努力——這樣的努力當然有意義,但是從整個大圖景來看,不是雪中送炭而是錦上添花。

所以自動駕駛的道德問題的答案是很清楚的:我們應該儘快的普及自動駕駛,所要跨越的,更大程度上是法律和人心的障礙,而不是技術障礙。

自動駕駛下的世界肯定要比現在更美好得多:交通事故發生率有數量級的下降,人們不用再擔心被一輛酒駕或者打瞌睡的司機撞到,機器也不會忽略交通標誌,在晚上也能看得清清楚楚。

作為乘客,我也不需要再在長途車上浪費我的精力和時間,忍著疲勞去開10個小時車:自動駕駛情況下這段旅程我大可以睡一覺,玩遊戲,看風景,幹什麼都行,就跟我們現在坐高鐵一樣。

大城市糟糕的交通情況也將會有極大的改善:統計數據表明,在任意時刻,80%以上的車輛都是靜止的。

如果我們能夠通過自動駕駛將車輛利用率提高到50%,城市中也減少了30%以上的車輛:道路不再會是停車場,多餘的停車場大可以用來改建成綠地,公園,或者其他更加能夠讓人放鬆的元素。

我的推斷是2030年前後,人類駕駛將被完全取締:讓人駕駛將會是一項極不道德的行為,就如同現在的自動駕駛一樣。

我會開車,但是自從我經歷過連續驅車兩天,每天10小時以上的旅行之後,我就變成了一個堅決的自動駕駛擁護者。從功利主義角度,自動駕駛毫無疑問將會拯救很多人的生命,他們原本將會被水平差勁、喝過酒或者正在打瞌睡的人類司機撞死。

於是,如果是你站在這個扳道岔上,失控的火車原本走上的那條道路上有好幾百萬人,而這條岔道上一個人都沒有,那你是否要扳動這個道岔呢?

相關焦點

  • 倫理道德問題成自動駕駛面臨的最大難題
    美國汽車協會公布的一項研究報告顯示,71%的美國受訪者害怕乘坐自動駕駛汽車,近90%的受訪者擔心自動駕駛存在技術問題。受訪者中,只有7%的人「非常熟悉」自動駕駛汽車。自動駕駛成了一項讓人又愛又恨的功能。以至於很多人不禁捫心自問——人類是否需要自動駕駛?
  • 「電車難題」不應成為自動駕駛技術發展的緊箍咒
    說起自動駕駛,許多人就會不自覺的聯想到上世紀 70 年代誕生的經典電車難題,這個倫理學領域最為知名的思想實驗正在成為整個行業不斷前進的絆腳石。因此,現在我們是不是該向前看,把這個問題徹底翻篇,不要再用這一道德問題來拷問自動駕駛汽車了?所謂的電車難題內容大致是:一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,並且片刻後就要碾壓到他們。
  • 陳景輝:自動駕駛與乘客優先|華東政法大學學報202006
    關鍵詞:自動駕駛;乘客優先;市場論證;損害;電車難題 隨著各個國家的交通管理部門允許自動駕駛汽車的路測,自動駕駛已經成為我們真實生活場景中的一部分,這離「大規模設計、製造、銷售和使用」僅一步之遙。
  • 「雙語彙」Trolley Problem/電車難題
    倫理學中的一個經典思想實驗(thought problem),近日因為自動駕駛(self-driving)的興起,重新回歸人們的視線,這就是電車難題(trolley problem)。這一涉及生命價值的兩難選擇,常讓人抓耳撓腮,感到無從抉擇。
  • 無人駕駛遭遇道德困境
    按照生命價值進行取捨,這就如同1967年哲學家菲利帕·福特(Philippa Foot)在其論文《墮胎問題和教條雙重影響》中提出的「電車難題」:一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,並且片刻後就要碾壓到他們。幸運的是,你可以拉一個拉杆,讓電車開到另一條軌道上。然而問題在於,那個瘋子在另一個電車軌道上也綁了一個人。考慮以上狀況,你是否還會拉動拉杆?
  • 未來的自動駕駛能有「責任心」嗎?
    在自動駕駛汽車倫理問題上歷來存在巨大爭議。像「電車難題」這樣的倫理困境,人類尚且難以給出兩全之策,機器又該如何妥善處置呢?有學者指出對電車難題的討論是沒有意義的。德國車輛製造商梅賽德斯更是直截了當地給出了自己的答案,即梅賽德斯將優先保護車上人員安全,同時指出電車難題不是一個真正的問題,因為該公司將「致力於提高和完善技術和風險防範策略,完全避免兩難情況的出現」。美國交通部2016年將倫理問題作為自動駕駛汽車15項安全評估標準之後,2017年卻將其從中刪除,這一轉變表明倫理事項並非當前的核心問題。
  • 自動駕駛的法律與倫理困境
    谷歌2015年4月份宣布,它們的自動駕駛汽車已經行駛超過100萬英裡。據摩根斯坦利數據調研,自動駕駛汽車在2025年會進入家家戶戶。這迫使我開始思考人生了,在這些自動駕駛汽車的背後,是否會有倫理和哲學問題呢?
  • 道德問題的哲學與認知科學交叉研究路徑
    接下來我們將以道德判斷、具身道德情緒和機器道德這三個道德研究領域中的重點問題為例討論如何將哲學與認知科學研究手段進行有機結合,共同攻關。 一 在道德研究領域,最為經典的問題就是道德判斷,尤其是道德兩難困境。例如著名的電車困境,在該困境中,一輛失控的電車向著站有5個人的軌道駛去,片刻後就會碾壓到他們。
  • 電車難題到底難在哪裡?
    「電車難題」是倫理學領域最知名的思想實驗之一,其內容大致是:一個瘋子把五個無辜的人綁在電車軌道上,一輛失控的電車碾向他們。幸運的是,你可以拉杆讓電車開到另一條軌道上,然而問題在於,那個瘋子在另一個電車軌道上也綁了一個人。考慮以上狀況,你是否應拉拉杆?
  • 電車難題——一道經典的倫理哲學思考題!
    當然這並不是一個真實的問題,而是一個思想實驗。思想實驗其實很常見,你老婆問你,「她和你母親同時掉進水裡,你先救誰?」,這也是一個思想實驗。這道經典的先救誰難題,令男性同胞傷透了腦筋,回答的好還可以,答不好就送命。為什麼這道題這麼難回答,仔細思考一下,似乎已經不是先救誰的問題了,而是親情和愛情,哪一個更重要?
  • 讓汽車更有「人情味」:韓媒稱發展自動駕駛技術關鍵是尊重生命
    如果無視駕駛員駕駛習慣和道德,一旦發生酒後駕駛或被犯罪分子惡意利用,會發生什麼情況?後果將會很可怕。如果自動駕駛的汽車開到懸崖邊,如何救司機,這些技術也是非常重要的。據韓國國土交通部、產業通商資源部透露,自動駕駛汽車將從2022年開始正式在公路上行駛。韓國相關部門將投入1萬億韓元(約合人民幣59.5億元)用於研究倫理指南。
  • 自然雜誌:面對「電車難題」,不同國家的人有不同的道德選擇
    編者按:電車難題原本只是一個思想實驗。但是無人車的發展卻繞不開這個問題。因為機器在無論如何都會撞死人的情況下必須靠預先植入的道德代碼做出判斷:該犧牲誰,該保誰。但是一項有全球230萬人參與的調查表明:這個問題並不存在普適性的道德選擇。這個問題的解決也許需要進行一場全球性的公開討論才能達成共識——或者永遠也無法達成共識。
  • 當孔子和康德遇到電車難題時……
    ——這就是著名的「電車難題」,如下圖:這個問題已經很變態了,但是為了得到更多元的結論,更變態的心理學家和哲學家們還對這個問題進行了很多改版,其中比較著名的版本就是胖子-電車難題:還是那個岔道口,還是那五個可憐人,但岔道上沒有綁著人,而且沒有控制杆,不過在岔道口上方有一個天橋
  • 高人對功利主義的探析,那個歷史上著名的電車難題你解決了嗎?
    電車難題不僅是功利主義者面對的道德困境,也是一般意義上各類學說的道德難題。解決好了,人性得到釋放,解決不好,我們就會迷茫和對抗。1,電車難題電車難題最早由英國哲學家菲利帕·福特在1967年發表的論文《墮胎問題和教條雙重影響》中提出,該問題一經提出,便引起了學術界廣泛的討論。
  • 《電車難題》:站在人性的軌道交叉口,該如何做出正義的倫理選擇
    導讀:《電車難題》被譽為倫理學上最為知名的思想實驗,這是因為它僅僅通過實驗,就能輕易地勾起絕大多數人去挑戰思維極限的欲望,讓人不自覺地代入實驗中,身臨其境的去理性思考,並陷入道德倫理糾結,探尋心中的正義方向!
  • 薦書之法律篇(二):洞穴奇案、電車難題與無知之幕
    洞穴奇案作為一個難題,蘊含著對道德的拷問,對法律的考驗。在這個實驗中,公眾和法律人共同體很可能分為兩個陣營,彼此對立。當然,這兩個陣營並分涇渭分明,不然,這個思想實驗的複雜性和重要性也無從凸顯。洞穴奇案的核心問題之一就是探險隊員們吃了其中一個成員,依照法律應該如何定罪量刑。富勒虛構了五位法官,並闡明各自立場及觀點。在此基礎上,作者彼得·薩伯又虛構了九位法官,發展和完善了富勒的觀點。
  • 無人駕駛三大靈魂拷問:以後真的可以「無證駕駛」了嗎?
    很多人只見到車展上的概念車「藏起」方向盤,卻不知「司機」在「無人駕駛」體驗車裡手心冒汗。鋪天蓋地的新聞都在說「無人駕駛」來了!可是它真的來了嗎?自動駕駛無人化,取代司機還是便利乘客?正像滴滴自動駕駛公司COO孟醒談到的:自動駕駛無法替代人類駕駛員的關懷和溫情,有溫度的優質司機永遠不會消失。「電車難題」多年未解,車企的答案是什麼?從L0到L5,自動駕駛的分級已經逐漸清晰,日產近期也已曝出將在2022年量產L3級自動駕駛的消息。也許再過幾年,在行駛環節解放司機的手腳,技術層面上的難度已經不大。
  • Uber自動駕駛致死事故難道是算法出了問題?
    理論上這次Uber事故中車輛已經裝配了64線雷射雷達、多個攝像頭和雷達的前提下,在硬體不出問題的情況下,有可能是車輛在後面的決策過程中出現了問題,也就是算法出了問題,嚴謹的說是算法不夠智能和完善,導致自動駕駛「大腦」沒能成功的預測行人的動作行為。
  • 特斯拉被吹上天的自動駕駛也存在安全問題 出行安全再次受到重視
    對此,特斯拉公司的一位發言人表示,這一研究結果並不是一個現實問題,因為司機可以很容易地停止自動駕駛系統,重新掌握對車輛的控制,避免由於某些惡意貼在地上的貼紙而撞上迎面而來的車輛。大家應該都知道,特斯拉自動駕駛系統Autopilot可以通過深度學習來對漏洞進行自動修補以及完善,但這樣的修復都是需要在事故或者問題發生後才會自動進行,也就意味著這樣的修復是建立在人們生命安全上的,同時也意味著僅依靠深度學習算法推動自動駕駛汽車達到足夠高的安全標準還不太現實。
  • 自動駕駛計算機視覺研究綜述:難題、數據集與前沿成果(附67頁論文...
    、攝像頭模型與校準、目標識別、追蹤等問題中的難題與頂尖研究成果。然而,和每一個快速發展的領域一樣,人工智慧領域也出現了業內人員難以跟上行業節奏或者業外人員難入行的問題。雖然已編寫過幾篇專題調查論文,但是到目前為止,還沒有關於自動駕駛計算機視覺(computer vision for autonomous vehicle)的難題、數據集和方法的綜合性調查。本文通過提供有關自動駕駛計算機視覺這一主題的最新調查以填補這一空白。