當AI面對「電車難題」時會如何選擇?

2020-11-23 手機鳳凰網

文 | 智能相對論,來源 | 佘凱文

《流浪地球》上映已經超過一個月了,截止目前,其國內累計票房已經突破了46億元人民幣,距離票房第一還差10億,考慮到其已經延期上映至5月5日,衝擊票房第一還是有希望的。同時它也帶來的各種話題也從未停息,3月6日,電影周邊人工智慧MOSS的雕像開啟了眾籌,這臺一直催促劉培強中校快點進入休眠艙的人工智慧,深受影迷的喜愛。

這類具有高智能度的AI已經在包括《終結者》、《鋼鐵俠》及《流浪地球》等許多影視作品中出現過了,《終結者》中的天網是個大反派,在《鋼鐵俠》中賈維斯又是個忠僕,那麼在《流浪地球》中的MOSS到底是什麼屬性呢?

AI面對「電車難題」會如何選擇

「電車難題」是一個著名的思想實驗,其內容大致是:一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,並且片刻後就要碾壓到他們。而此時你可以選擇拉杆讓電車開到另一條軌道上。然而問題在於,另一個電車軌道上也綁了一個人。考慮以上狀況,你是否應拉杆?

在這個問題上人類做過很多調研,大部分人都會選擇拉杆,讓電車變道「殺一人而救五人」。

在電影中moss也面臨著類似「電車難題」般的選擇,在受到木星引力的影響下,地球即將撞向木星,是拋棄地球開啟「火種計劃」,還是選擇犧牲空間站「引爆木星」。

電影中Moss通過「理性」分析其認為「引爆木星」計劃的成功率為零,毅然選擇了開啟「火種計劃」帶著空間站開始「逃離」。然而事情的結果卻是moss計算「錯誤」,引爆木星計劃幫助地球成功擺脫了木星引力,使得地球重歸流浪之路。

關於「電車難題」還有一個非常著名的延伸問題,同樣在鐵軌上被綁了5個人,一列失控的電車即將經過,在壓到這5個人之前電車會經過一個橋洞,此時橋上有一個胖子,只需要將胖子推下橋,電車就會因為壓到胖子而脫軌,從而解救被綁在橋上的5個人,你推還是不推?根據調查結果顯示,在此時大多數人又都會選擇不推,而讓電車壓過被綁的5人。

同樣的「殺一人而救五人」,在這兩種前提下卻出現了截然不同的選擇結果,這就是人類的「感性及道德」在作祟。在第一個前提下,選擇拉杆給人的心理暗示是「我拯救了5個人」,而在第二種前提下卻變成了「我殺了1個人」,於是就導致了兩種選擇結果。

如果在此時再次換成AI來做決斷又會是什麼情況呢?以電影中moss的「理智」來看,moss極有可能會推下那個胖子因為「以少換多」看起來是個划算的買賣,可是moss就會變成「殺人犯」,這在人類的道德觀上又是不允許的。那麼,為何由人類製造的人工智慧,可能在「道德標準」的選擇上卻與人類完全不同,這是電影中折射出來的現實問題。

人工智慧的「道德標準」該如何制定,或者是否該符合人類自身的「道德標準」這個問題將不止出現在電影之中,未來在生活中也將出現,而距離這個問題「最近」的就是「無人駕駛汽車」。

在「無人駕駛領域」關於「電車難題」的討論已經有過很多,也針對全球數百萬人做過調研統計,得出了一套「選擇偏好」,例如在即將發生事故時更傾向於拯救人類而不是動物、拯救多數人犧牲少數人、優先拯救兒童等等,目前很多無人駕駛汽車也已經將這些「選擇偏好」置入了無人駕駛汽車之中。但是這些選擇大部分都是人類基於情感因素做出的。

所以說到底,AI會如何選擇還是看人類自己,AI的程序都是由人來寫的,就像電影中moss「一臉」委屈的說「自己從未叛逃,只是在執行聯合政府的預定計劃而已」。

但是這份偏好也僅僅只是代表了「大多數」人,像電影中的聯合政府,現實生活中做出此類選擇的人,還是有部分人的意願未能滿足。在這個怎麼選都是「錯」的前提下,有沒有更優的第三種選擇是無人駕駛汽車發展的障礙之一。

電影中moss有一句被廣為流傳的臺詞「讓人類永遠保持理智,的確是一種奢求。」從某些方面看來確實如此,所以若將AI擺在與人類同等的位置,以人類的「道德標準」來要求AI算不算得上是某種「道德綁架」呢?若是不給「無人駕駛汽車」套上人類的道德標準,而是讓AI通過自己的深度學習來應對這類事情會不會讓「電車難題」的答案更加「理智」?

「機器人三大定律」還能保障人類的利益嗎?

做完人與人之間的選擇題,還有一道選擇題是機器與人,可能很多人覺得這不是個問題,在機器與人之間肯定是選人,作為人類你是這樣想當然沒錯,可機器也是這麼「想」嗎?

在談論這個問題之前我們需要了解一下「機器人三大定律」。最初「三大定律」只是阿西莫夫小說中的概念,但現在已經成為被普遍認可的機器人發展的底線之一。

第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀.

第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾。

第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。

回到電影當中,moss已經多次違背了這三大定律,首先,moss就殺死了俄羅斯太空人老馬,這就違背了第一條;接著,在劉培強中校與地球溝通時,moss強行切斷了聯繫,這就違背了第二條。

而這裡正是AI與人類之間「主導權」的選擇,有人說在電影中moss切斷通訊是因為聯合政府的權利級別高於劉培強中校,所以moss是服從於最高指揮並沒錯,但是在電影中並未說明聯合政府賦予了moss強行切斷通訊的權利,在聯合政府還未給回復時,moss就切斷了聯繫,並且通過後續劇情來看,劉培強中校手動聯繫地球聯合政府對方也並未拒接。

那麼若是在實際生活中發生了類似控制權爭奪的情況AI會選擇服從嗎?很不幸的是,這樣的事情其實已經在現實中發生了,並且還造成了一次嚴重的事故。

2018年的獅航墜海事故想必都還有印象,機上189人全部遇難,從事後的初步分析報告來看,專家認為此次事故的原因主要是因為飛機上空速表出現故障,問題源於迎角傳感器失靈,而迎角傳感器的作用是測量並傳輸氣流與機翼弦線之間形成的「迎角」這一重要飛行參數,提示飛機升力,避免失速風險。

在儀器失靈後,飛機內部系統認定此時飛機已經進入失速姿態,於是強行開啟了飛機俯衝模式,在11分鐘內飛機向下俯衝了24次,期間機長與機器之間展開了一場致命的控制權爭奪戰,但最終還是未能從飛機系統上奪回控制權,飛機以每小時700多公裡的速度墜入大海。

波音公司稱這是一個隱藏得很深的自動駕駛bug,這雖然看起來是一次技術上的失誤,但我們也不得不考慮在不同領域賦予AI哪些或是多少的控制權是合適的。

另外,除了「主導權」的選擇,AI自我「犧牲性」的選擇也通過電影反映了出來,在電影最後,是由劉培強中校手動操縱空間站飛向了木星,而其實劉培強中校完全可以不用犧牲,這一過程可以由moss來自主完成。

當然這只是電影,劉培強的死是為了烘託氣氛,製造效果。而「三大定律」的第三點也明確表明,機器人需要「自我保護」,在電影中moss的自我保護,使其不會主動撞向木星,並且moss收到的指令是撤離,但是它又親眼見證了劉培強的死,這使得矛盾頻發。

說明單是「三大定律」已經無法滿足實際需求,或許需要「十大定律」、「二十大定律」才能更加有效構築機器人的底層規則。

最後,回到文章標題的問題,moss在電影中的一系列行為到底算不算「叛逃」?在「三大定律」之後,阿莫西夫又補充了「第零定律」,是指「機器人必須保護人類的整體利益不受傷害。」

moss在「計算」地球無望逃離之後,它開啟了「火種計劃」其初衷正是保存人類文明,延續人類整體利益,所以從這個角度看moss確實沒有叛逃,但是也如moss所說,人類難以保持理智,所以從感性角度來看,moss非但沒有幫助劉培強中校拯救地球,還在不停地搗亂,又是在像極了「叛逃」。

也有網友開玩笑提出了一個新的視角,「moss不過是在執行任務,而沒有服從聯合政府安排的人是劉培強中校,所以真正在『叛』的人是劉培強」。你又是怎麼看呢?

小結

越來越多科幻電影中的元素已經走進了現實生活,人工智慧威脅論也是隨著科幻電影被一點點放大,科幻電影對世界產生的影響具有多樣性,具體需要怎麼看待,借用卡梅隆在日前與劉慈欣的「雙神」對話中,所說的一句話「科幻電影不是預測未來,科幻電影是阻止不好的未來發生。」

更多精彩內容,關注鈦媒體微信號(ID:taimeiti),或者下載鈦媒體App

相關焦點

  • 《電車難題》:站在人性的軌道交叉口,該如何做出正義的倫理選擇
    如果我們把這個案件的判決結果放在一邊,只是單獨的去看這件事,會不會像奧克蘭大多數市民所認為那樣,這是一個見義勇為的女英雄呢?就像電車難題的試驗一樣,據實驗結果顯示90%的人會選擇救5人而殺1 人,甚至他們會覺得這種選擇是多麼地充滿正義,是人性中最符合倫理的選擇。
  • 《電車難題》:倫理情感難題該如何判定?
    這就是由英國哲學家菲莉帕·富特於1967年提出的「電車難題」,此後關於「電車難題」的討論一直在社會各界人士之間進行,至今都沒有一個結果。託馬斯·卡思卡特在其著作《電車難題》中模擬了一樁案例,從檢察官、辯方、心理學家、哲學家和普通人角度出發,探討了社會中不同身份、職業的人對案件的判斷。
  • 電車難題:你會怎麼做?
    他在這門課程的第一堂中提到當代思想史上一個著名的思想實驗:一輛剎車失靈的有軌電車的司機,應該選擇讓電車繼續前行、撞死軌道上的五個人,還是選擇轉動方向盤、撞死岔道上的一個人。 桑德爾教授所追問的,就是半個世紀之前英國哲學家菲利帕·富特(Philippa Foot)提出的電車難題,它以極為生動的形式,對西方倫理學的基本立場進行了解讀和批判。
  • 「電車難題」的「道德物化」解法
    「電車難題」提出後,又出現了不少類似版本,都創設了無論選擇怎樣做都存在道德缺陷的情景。  隨著人工智慧無人駕駛技術的發展,「電車難題」重新引起熱議。如果在這種情況下,無人駕駛的電車應走哪一條軌道,事先需要如何設定程序?再進一步設想,如果無人駕駛汽車行駛途中出現意外情況,不能兼顧乘客安全和車外行人安全時,人工智慧系統應如何進行決策?
  • 現代社會的「電車難題」:自動駕駛系統在意外來臨時會撞向誰?
    如果是你,將怎樣選擇?」 聞名於哲學界的「電車難題(Trolley Problem)「在自動駕駛汽車時代」將不再只是一個哲學問題,而是每一個自動駕駛系統需要面對的真實問題,系統將決定在發生事故時撞向誰、保全誰。
  • 「電車難題」不應成為自動駕駛技術發展的緊箍咒
    在為機器人設定道德條件時這個思想實驗根本不及格,如果硬要把它套進這一領域,特別是在制定政策、引導設計或回答一些人們關心的問題時,肯定會導致一些有關機器倫理的危險且不完整的結論。另外一個則屬於法官面對的難題,她設想如果法官不判處一位無辜群眾的死刑,暴徒就威脅要衝擊法庭。第二個設想就與電車難題類似,法官要做出選擇,到底是為了正義犧牲多數人的生命,還是為了多數人的利益犧牲無辜者。經過一番研究,Foot 在論文中表示:「大多數選擇犧牲扳道員來拯救更多生命的人,如果碰上法官歪曲黑白剝奪無辜者生命時也會感到震驚。」
  • 「電車難題」真有那麼難嗎?
    那麼問題來了,如果你就是站在橋上看風景的那個人,你會怎樣做?絕大部分人的選擇是不推。這個做法被認為是公平指向的。如果僅僅著眼於怎樣採取行動,那麼電車難題其實真沒什麼難的。通過課堂上的提問回答,桑德爾已經初步展示了人們對兩個問題給出不同答案的統計數據。
  • 道德永遠是個「難題」——電車難題、自利與理性
    就這樣,諾蘭把哲學史上著名的電車難題,搬到了商業電影的熒幕上:一輛電車即將撞上兩群人,一邊人更多,一邊人更少,你手裡掌握著決定電車方向的軌道控制器,你會如何選擇?在這部電影中,雖然選擇權到了這兩群人手裡,但其本質都是一樣的——電車難題要我們在多數和少數之間做選擇,小丑要我們在罪犯和普通公民之間做選擇,問的都是同一個問題:人的生命的價值,可以拿來論斤論兩的計算和比較嗎?
  • 當無人車遇上著名的 「電車難題」 它會怎麼辦?
    拉下控制杆,你能拯救五條生命,但會犧牲另一個:你如何選擇才能不違背倫理?隨著時間的推移,這個問題演化出許多新版本,譬如:是選擇讓電車撞死五個人,還是把一個胖子推下去阻止列車前行(胖子也得死);還有一種,胖子恰巧就是這個把五位無辜者綁在軌道上的人,等等。如今,這個辯題因無人車的出現被賦予了新的生命。新的版本是:你的無人車將撞上一輛校車,它意識到它可以選擇殺死你或者拯救一車的孩子。
  • 當無人車遇上著名的「電車難題」,它會怎麼辦?
    「電車難題」是一個倫理學領域的思想實驗,自1967年Phillipa Foot提出以來,大批哲學家對此樂此不疲。 五個無辜的人被綁在鐵軌上,一輛列車疾駛而來,他們死定了。除非你拉下列車控制杆,使列車朝另一個方向駛去,但那條軌道上有一個同樣無辜的人。拉下控制杆,你能拯救五條生命,但會犧牲另一個:你如何選擇才能不違背倫理?
  • 《自然》雜誌:面對「電車難題」,不同國家的人有不同的道德選擇
    編者按:電車難題原本只是一個思想實驗。但是無人車的發展卻繞不開這個問題。因為機器在無論如何都會撞死人的情況下必須靠預先植入的道德代碼做出判斷:該犧牲誰,該保誰。但是一項有全球230萬人參與的調查表明:這個問題並不存在普適性的道德選擇。這個問題的解決也許需要進行一場全球性的公開討論才能達成共識——或者永遠也無法達成共識。
  • 自然雜誌:面對「電車難題」,不同國家的人有不同的道德選擇
    編者按:電車難題原本只是一個思想實驗。但是無人車的發展卻繞不開這個問題。因為機器在無論如何都會撞死人的情況下必須靠預先植入的道德代碼做出判斷:該犧牲誰,該保誰。但是一項有全球230萬人參與的調查表明:這個問題並不存在普適性的道德選擇。這個問題的解決也許需要進行一場全球性的公開討論才能達成共識——或者永遠也無法達成共識。《自然》雜誌的一篇文章對此進行了綜述。
  • 「電車難題」的自然主義視角
    「有軌電車難題」是道德心理學研究中被反覆討論的思想實驗。它假設了這樣一種情形:你正駕駛一輛失去剎車的有軌電車,在軌道前方有五個正在施工的工人,如果電車繼續直行必然會致其死亡,而旁邊的軌道上只有一名工人,你選擇變換軌道撞向一個人,還是繼續直行撞向五個人?
  • 電車難題的經濟學解釋
    「電車難題」是倫理學領域最為知名的思想實驗之一,其大致內容是一個瘋子把五個無辜的人綁在電車軌道上。
  • 電車悖論—生活中的倫理選擇困境
    《墮胎問題和教條雙重影響》中首次提出:假設你是一名電車司機,你的電車以60km/h的速度行駛在軌道上,突然發現在軌道的盡頭有五名工人在施工,你無法令電車停下來,因為剎車壞了,如果電車撞向那五名工人,他們會全部死亡。
  • 目前無解的道德難題:電車難題及其延伸問題
    千鈞一髮之際,你發現有一條側軌,側軌上只有1個修理工,且電車的方向盤沒有壞,那麼問題來了:你會為了救5個人而轉動方向盤,讓電車駛向側軌嗎?這就是經典的電車難題,也稱電車撞人悖論。大多數人表示,如果自己是那位電車司機,會選擇變軌。
  • 「電車難題」,公平到底該怎麼做?一個法理上的難題
    2009年,哈佛大學哲學系教授麥可·桑德爾的公開課《公正:該如何做是好?》風靡全球。他在這門課程的第一堂中提到當代思想史上一個著名的思想實驗:一輛剎車失靈的有軌電車的司機,應該選擇讓電車繼續前行、撞死軌道上的五個人,還是選擇轉動方向盤、撞死岔道上的一個人。
  • 重讀電車難題:當無人車不得不殺人 誰決定誰生死
    【網易智能訊 9月24日消息】最近,「電車難題」這個一個廣為人知的道德倫理思想實驗,重新出現在人們的視野中。當未來由汽車來決定我們的生死時,這個難題將成為噩夢般的存在。然而,在許多研究自動駕駛汽車的專家眼中,關於電車難題的討論是過於偏激的。他們認為電車難題是譁眾取寵,而且也無關緊要的。但這種態度是不對的。由於自動駕駛汽車的出現,電車難題將得到解決。
  • 「電車難題」的難題
    在這些思想實驗中,「電車難題」大概是最著名(或者最臭名昭著)的一個問題了,它探討了犧牲小部分的人來拯救電車上更多人性命的可容許性。除了「電車難題」以外,還有數千個其它的思想實驗,有些案例甚至包含了多達數十個不同版本。考慮到思想實驗的存在幾乎和哲學自身一樣久遠,最近的哲學界對它的重視程度似乎有些異乎尋常了。
  • 【快評】自動駕駛的「電車難題」是一個錯誤的提問
    在聽過與會發言之後,賽迪智庫政法所的專家介紹了對自動駕駛面臨的「電車難題」的幾點看法:自動駕駛的「電車難題」通常是這樣一類問題:如果一輛自動駕駛汽車的前面兩個不同方向上有不同的人,比如一個方向是老人另一個方向是婦女,一個方向有1個人另一個方向有5個人等等,這輛自動駕駛汽車如果無法躲避,應當做出何種選擇,依靠何種算法規則做選擇,以及如果造成損害應當承擔何種責任。