機器倫理學:機器人道德規範的困境

2020-12-04 環球網

■新視野

機器人三大法則

科幻小說作家艾薩克·阿西莫夫在他1942年的短篇小說《環舞》(Runaround)中提出了「機器人三大法則」,後來更被幾十篇故事和小說所借用。這些法則是一種保護性設計和內置的道德原則,包括如下三項:一、機器人不可以傷害人類,或看到一個人將受到傷害而不作為;二、機器人必須服從人類的命令,除非這些命令與第一項法則矛盾;三、在不違反第一、第二項法則的前提下,機器人必須保護自身生存。

《環舞》的故事放到現在真是非常合適。近年來,現實生活中的機器人專家也越來越多地引用阿西莫夫的法則:他們創造的機器人正變得越來越自主,以至於需要這類指導。今年5月,華盛頓智庫布魯金斯學會的一個專家小組在談到無人駕駛汽車時,話題轉到了自動駕駛工具在危險時刻該如何應對的問題。如果一輛車需要急剎車來拯救它的乘客,卻可能帶來其他風險,比如導致後面的車輛擠成一團;或者需要急轉彎避讓一個孩子,卻可能撞到附近的其他人——這些情況下它該怎麼辦?

「在日常生活中,我們看到越來越多的自主性或自動化系統。」參與專家組討論的德國西門子工程師卡爾-約瑟夫·庫恩說,研究人員怎樣設計一臺機器人,才能讓它在面對「兩難之選」時作出正確的反應?

按目前的發展速度,這些難題將很快影響到健康護理機器人、軍用無人機及其他有能力作決策的自主設備,而它們所作的決策可能會幫助或傷害人類。越來越多的研究人員相信,社會能否接納這些機器,取決於能否通過編程讓它們的行動達到安全最大化,符合社會規範並增進信任。加拿大溫莎大學哲學家馬賽羅·伽裡尼說:「我們需要一些嚴肅的步驟來弄清楚,在某些道德情景下,讓人工智慧得以成功推理的相關條件是什麼。」

目前有幾個項目都面臨這一挑戰,包括美國海軍研究辦公室和英國政府的工程基金理事會資助的創新項目。他們必須解決棘手的科學問題,比如要作出一個合乎道德的決策,需要哪種類型的智能,要達到多高的智能程度,以及這種智能如何轉化成機器指令?計算機科學家、機器人專家、倫理學家和哲學家們都在共同努力。

「如果你5年前問我,我們能否造出來道德機器人,我可能會說『不』,但現在我覺得這種想法並不為過。」英國布里斯托機器人技術實驗室的機器人專家阿蘭·溫菲爾德說。

學習案例的機器人

在目前人們經常提到的實驗中,一個叫做「Nao」的商業玩具類機器人經過編程設計,能提醒人們按時吃藥。

「從表面上看,這好像很簡單。」美國康乃狄克大學哲學家蘇珊·安德森說,她丈夫麥可·安德森是哈康乃狄克州哈特福特大學的計算機科學家,他們正一起研究這種機器人,「但即使是這種有限的任務,也涉及到不平常的倫理道德問題。」比如,病人如果拒不接受Nao給的藥,它下一步該怎麼辦?如果讓病人跳過這一次,可能會危害他的健康;如果堅持讓他服藥,又會侵犯了他的自主權。

為了教導Nao處理這種兩難的情況,安德森給了它一些案例,在這些案例中生物倫理學家解決了這種病人自主權、危害和利益之間的矛盾。學習算法隨後會在這些案例中分類選擇,直至找到指導機器人在新情況下如何行動的辦法。

隨著這種「機器學習」的發展,機器人甚至可以從模糊不清的輸入中提取出有用的知識。理論上,這種方法有助於機器人在遇到更多情況時,作出更符合道德的決策,但也有許多人擔心,這種好處也是有代價的。史丹福大學的人工智慧與倫理學專家傑瑞·卡普蘭說,出現的原則不寫入計算機代碼,如此「你無法知道怎樣編程制定一項特殊法則,來辨別某件事在道德上正確與否」。

編程限定的機器人

許多工程師認為,要避免這一問題需要不同的策略,大部分正在嘗試編寫有明確法則的程序,而不是讓機器人自我推導。去年,溫菲爾德發布了他的實驗結果:當有人遇到危險,如掉進洞穴時,允許一臺機器去救助他的一套最簡單的規則是什麼?溫菲爾德意識到,最明顯的是機器人要有能力感知它周圍的環境——識別洞穴和人的位置,以及它自己相對於二者的位置。但機器人還需要一些規則,讓它能預測自身行為可能帶來的後果。

溫菲爾德的實驗用了幾個曲棍球大小的機器人,他將其中一些設計為「H-機器人」代表人類;另一個則按照阿西莫夫的小說取名「A-機器人」,代表道德機器。他還模仿阿西莫夫的第一法則給A-機器人編程:如果看到H-機器人處在掉入洞穴的危險中,必須來到H-機器人身邊解救它。

溫菲爾德用機器人做了幾十次測試。隨後他很快發現,執行「允許無害法則」面臨著道德困境,如果讓A-機器人看到兩個H-機器人同時瀕臨險境,這時它會怎麼做呢?

溫菲爾德說,結果表明,即使最低限度的道德機器人也是有用的:A-機器人通常會設法去救一個「人」,通常是首先移動到離它稍微近一些的那個「人」身邊。有時它會迅速移動,甚至設法去救兩個「人」。

但實驗也顯示了極簡主義的限制。在近一半的實驗中,A-機器人只是在那裡無助地振動,任兩個處在危險中「人」死亡。要想改善這一點,還需要找到如何做選擇的額外法則。比如,其中一個H-機器人是成人,而另一個是個孩子,A-機器人應該先救哪一個?在做類似這樣的選擇時,甚至人類自己也無法達成一致意見。通常,就像卡普蘭所指出的:「我們不知道明確的規則應該是怎樣的,也不知道該如何編寫它,如此它們必然是不完善的。」

而擁護者認為,以規則為基礎的策略有一個重要優點:機器為何要做選擇,這一點總是很明確,因為設計者制定了規則。

戰場中的「道德管理者」

這也是美國軍方所關心的一個重要問題,自動系統是一項關鍵的戰略目標。機器能否幫助士兵,或執行可能有生命危險的任務。「送一個自動機器人去執行軍事任務,並算出在各種任務中應該遵守的什麼道德法則,這恐怕是你最不希望的事。」喬治亞理工大學的羅納德·阿金說,他正在研究機器人道德軟體。如果一個機器人需要在救一名士兵和追逐敵人之間做出選擇,那事先知道該做什麼是非常重要的。

在美國國防部的支持下,阿金正在設計一個程序,以確保軍用機器人能按照國際公約規則來行事。一套稱為「道德管理者」的算法能計算出某種行為,比如發射一枚飛彈是否被許可,只有在得到肯定答案「是」的情況下才能繼續下一步。

在對「道德管理者」進行的一次虛擬測試中,讓一輛無人駕駛的自動車模擬執行打擊敵人目標的任務——但如果有市民在建築物附近,則不允許這麼做。設定的場景各種各樣,自動車相對於攻擊區的位置也是多變的,市民有時出現在醫院,有時在住宅建築,由算法來決定何時允許自動車完成其任務。

自主而且軍事化的機器人令很多人震撼。有人認為它們是危險的——圍繞這種機器應不應該被批准已有無數爭論。但阿金認為,在某些情況下這種機器比人類士兵更好,只要它們經過編程,就永遠不會打破戰爭規則,而人類卻可能無視這些規則。

目前,那些正在研究嚴格編程的機器倫理學的科學家傾向於使用代碼,用邏輯的描述,例如「如果一個陳述為真,向前進;如果為假,不要動」。位於葡萄牙裡斯本的「諾娃」計算機科學與信息實驗室的計算機科學家路易斯·莫尼茲·佩雷拉認為,邏輯是編碼機器道德的理想選擇,「邏輯是我們推理並得出道德選擇的方式」。

寫出一些邏輯步驟指令來做道德選擇是一項挑戰。佩雷拉指出,使用電腦程式的邏輯語言,對假設的情景得出最終結論是很困難的,但這種反事實推理是解決特定道德困境的關鍵。

道德困境邏輯解決

比如哲學中那個著名的道德選擇問題:假設軌道上有一列失去控制的火車,即將壓死正在軌道上的5個無辜的人,你只要扳一下槓桿使其轉到另一條軌道就能救這5個人,但在那條軌道上有另一個旁觀者就要因此而死;或者說,唯一能讓火車停下來的辦法是把這個旁觀者推到軌道上,這時你該怎麼做?

人們通常會覺得,扳一下槓桿讓火車停下來沒問題,但卻本能地牴觸將旁觀者推上軌道的想法。按照基本直覺,哲學家將其作為雙重效應的基本原則,故意施加傷害是錯誤的,即使會帶來好的結果。但如果不是故意的,只是單純地想做好事,施加傷害或許是可以接受的——即旁觀者只是碰巧在軌道上的話。

對於決策過程而言,這一界限是極難分析的。從一開始,程序必須能預見到兩個不同的未來:一個是火車殺死了5個人,另一個是火車殺死了1個人;然後程序必須要問,因為去救5個人的行動會造成傷害,所以這一行動是否不被允許?或者,因為傷害只是做好事的副作用,所以這一行動是被允許的?

為了找到答案,程序必須能告知如果選擇不推旁觀者,或不扳槓桿會發生什麼——這就是反事實推理。「這好像是一個程序在不斷地自行調試,以找到編碼的界限在哪裡,如此事情就會改變,並預測改變的結果可能是什麼。」佩雷拉和印度尼西亞大學計算機科學家阿里·賽普塔維加亞已經寫出了一款邏輯程序,能在雙重效應原則的基礎上成功地作出決策,甚至還有更加複雜的三重效應原則,這些考慮了造成傷害是否故意,抑或只是必須如此。

人類、道德與機器

研究人員指出,對未來的機器人技術而言,如何建造道德機器人可能會有重大後果。英國利物浦大學計算機科學家麥可·費希爾認為,規則限定系統會讓公眾覺得可靠。「如果人們不確定機器會做什麼,他們會害怕機器人的。但如果我們能分析並證明它們的行為原因,就更可能克服信任問題。」他正在和溫菲爾德等同事共同做一項政府資助的項目:證明道德機器程序的結果總是可知的。

相比之下,機器學習的方法讓機器人能從以往經驗中學習,這讓它們最終會比那些嚴格編程的同伴更加靈活而有用。許多機器人專家則認為,今後最好的方法可能是這兩種策略的結合。佩雷拉說:「這有點像心理治療,你可能不會只用一種理論。」難題仍未解決,就把各種方法以可行的方式結合起來。

隨著自主交通的迅速發展,很快就會面臨這些問題。谷歌的無人駕駛汽車已經在加利福尼亞部分地區試行。今年5月,德國汽車製造商戴姆勒的無人駕駛大貨車開始自行駕駛穿過美國內華達沙漠。工程師們正在努力思考著怎麼給汽車編程,讓它們既能遵守交通規則,又能適應道路情況。「迄今為止,我們一直在嘗試用機器人來完成那些人類不擅長的任務。」戴姆勒公司的發言人伯恩哈德·魏德曼說,比如在長期駕駛中一直保持專注,或在遇到突發情況時緊急剎車。「將來,我們將不得不給那些人們認為很自然的事情編程,因為那對機器來說並不是自然的。」

相關焦點

  • 如何讓機器人明辨是非:人工智慧未來的道德走向
    活動主講嘉賓是《道德機器:如何讓機器人明辨是非》的作者之一溫德爾·瓦拉赫(Wendell Wallach)。中國社會科學院研究員劉鋼、西安交通大學計算哲學實驗室中方主任王小紅也出席了活動。瓦拉赫是享有國際聲譽的人工智慧和神經科學倫理學領域的專家。
  • 《經濟學人》:是該讓機器人講道德了
    隨著機器人越來越智能化,計算機控制的機器將面臨倫理決策的看法正在從科幻世界進入現實世界。人類社會要想辦法保證改善他們的裝備,不用做出HAL必須做的道德判斷。  毫不奇怪,在向自主型機器人目標挺進的隊伍中,軍事技術是急先鋒,其發展促進了各種機器人的誕生。
  • 人對智能機器行為的道德判斷:現狀與展望
    如當自動駕駛汽車遭遇道德兩難困境時(緊急避險可拯救多人性命,但會導致少量無辜者犧牲),應當如何決策?看護機器人是否可以通過「善意的謊言」讓抗拒吃藥的病人吃藥(如機器人欺騙病人說如果病人不按時吃藥,那它就會因為無法勝任工作而被回收毀滅)?
  • 論機器人的道德地位:一種關係式的道德解釋學範式
    上海 200234  原發信息:《自然辯證法研究》第20177期  內容提要:我們應該賦予機器人道德地位嗎?這是一個一直困擾著機器倫理研究的問題。這裡探討了考慮賦予機器人道德地位的一種關係式方法。它關注道德關係和道德地位歸屬的可能性條件,並與基於屬性基礎上思考道德地位的標準方法處於臨界的位置上。它不僅克服了標準的方法上的認識論問題,也可以解釋我們面對機器如何思考、體驗和行動,包括可以解釋在理性和經驗之間產生的分歧。這種超越笛卡爾的、關係式的道德解釋學方法,它形成了一種思考道德地位和道德知識的不同範式。
  • 人工智慧或衝擊法律規範道德倫理 你會愛上機器人嗎
    原標題:你會愛上機器人嗎(關注·「三問人工智慧」③) 近來,美國一家公司生產的超仿真機器人Sophia在電視節目上與人類對答如流,成為「網紅」機器人。對話中,Sophia流露出的喜悅、驚奇、厭惡等表情真實得令人讚嘆,網友驚呼:快和真人分不清了! 技術往往是一把雙刃劍。
  • 讓機器理解社會倫理
    但是,這些保護性設計或者內置的道德法則能框住擁有獨立思考能力的機器人嗎?人們對於把自己的生命和福祉交給忽視倫理的系統會感到放心嗎?著名倫理學家、耶魯大學生物倫理學跨學科中心主管溫德爾·瓦拉赫(Wendell Wallach)在與國際知名認知科學哲學家,美國印第安納大學布盧明頓分校教務長講席教授、斯坦福哲學百科(SEP)副主編科林·艾倫(Colin Allen)認為,機器道德關乎人類的決策行為。
  • 機器人引發法律道德問題 如何教其學會道德判斷?
    (聲明:刊用《中國新聞周刊》稿件務經書面授權)     機器人也要講道德  在不同的文化中,道德的定義與尺度都不盡相同。當人類尚未很好地解決自身的道德困境時,如何教會機器人做出正確的道德判斷,或許將成為阻礙機器人大規模應用的一道籬障。
  • 倫理學也應該講究倫理
    摘要:本文提出「倫理倫理學」這一新的研究方向。首先說明為什麼要研究倫理倫理學,分析高科技時代倫理困境產生的根源。就此提出為擺脫困境倫理學家應注意的行為準則,並用成功與失敗的實例說明這些準則的有效性。  高科技時代是個日新月異的時代。
  • 醫學倫理學:醫學倫理規範相關知識解析
    醫學倫理學:醫學倫理規範相關知識解析。 醫學倫理學屬於醫學與倫理學相互交叉的學科,醫學倫理的研究對象其實就是醫德!所以醫學倫理規範又稱醫學道德規範。醫學道德規範是在醫療活動中應遵守的倫理標準或準則,也是培養醫務人員醫德品質的具體標準,簡稱醫德規範。醫學倫理規範它包括的內容有哪些?
  • 規範倫理學的四種進路
    作者:邢雁欣 龔群(浙江財經大學、中國人民大學哲學院)  功利論、道義論、契約論和德性論是當代規範西方倫理學的四種進路。「進路」就是方法,即以某種基本原則或命題開始,展開倫理學的理論,提出倫理學具體原則和規範。進路不同,提出的倫理原則或規範也不同,從而使得倫理學理論呈現出多樣性的特色。
  • 淺談遊戲中的倫理學(一)什麼是「倫理學」和「道德挑戰」?
    理論篇:將簡單闡述和說明東西方倫理學的各大流派和理論。實例篇:以分析實例為主,如永恆之柱中的任務、冰封王座斯坦索姆劇情等著名遊戲中的劇情實例,闡述倫理學理論是如何運用到遊戲劇情和任務中的。方法篇:通過解析實例,闡述設計此類具有道德挑戰和道德困境的劇情和任務的方法。
  • 劉瑋丨規範倫理學視角下的動物保護
    但除此之外,研究行為對錯的倫理學,特別是研究「應該如何」的規範倫理學,對於這些虐待動物的行為能夠提出什麼反駁,能夠給我們提供哪些「武器」去批評這些行為呢?在如今的規範倫理學領域,有三種比較主流的理論——德性論、義務論和功利主義,它們都以不同的方式為保護動物、反對傷害和虐待提供了理論依據。
  • 倫理學如何轉向生活世界
    立足於生活世界的現實基礎,我們會發現,公共倫理與個體德性、規範性的倫理秩序與自主性的道德意志、內隱的道德情感與外顯的道德行為、道德理性自覺與感性意識選擇、倫理知識與道德實踐等各種矛盾空前突出。現代人不得不置身的多重境況與不得不考慮的多重利益使得各種矛盾糾結為焦點性的倫理衝突與道德困境。在很多時候和很多境況下,生活世界的這種衝突是很難憑藉已有的道德原則進行非此即彼的道德選擇或非善即惡的道德評價的。
  • 唐文明 | 美德倫理學、儒家傳統與現代社會的普遍困境——以陳來...
    這裡推送的唐文明先生《美德倫理學、儒家傳統與現代社會的普遍困境》一文,是這一系列第5篇文章。本文圍繞陳來先生《儒學美德論》一書的觀點,對儒家倫理思想的本質進行了詳細探究。在論述儒家倫理思想不限於道德行為,也包含非道德領域的考慮時,陳來也是基於美德倫理學的理論資源展開的:亞里斯多德與廣義的美德倫理學重視的……是人的整個生活……也因為這樣,有的人認為,美德倫理學是一種「非道德的理論」。同樣,儒家的倫理學,明顯地不限於道德行為,而關注德行、人格和實踐的工夫。
  • AI倫理學教授:機器人也要講道德 人類有意識是偶然
    問:機器人倫理學是關於我們如何使用機器人的倫理道德規範,還是機器人自身行為的道德準則?Alan Winfield:這兩個都是,我大部分的工作涉及的是前者。也就是說,在這個世界上,人們關於什麼是道德行為,什麼是不道德行為的定義是不同的。所以,你不是在向一個最初就定義不明確的目標射擊嗎?Alan Winfield:當然,確實有這個問題。就像你說的,並不存在單一的、普遍的道德規範,即使是在某一個特定的傳統中也沒有,比如說,在西方的倫理傳統中,就有很多道德規範,無論是結果主義倫理,還是道義、道德,都是很複雜的。
  • 曹剛:倫理學是什麼
    現任教育部重點人文社會科學基地「倫理學與道德建設研究中心」主任,中國倫理學會副會長,首都精神文明建設委員會諮詢專家,《倫理學研究》《道德與文明》等刊物編委,《中國人民大學書報資料複印中心.倫理學》執行編委。首屆中國倫理學十大傑出青年學者,中國人民大學十大教學標兵。主持國家社科基金項目3項,主持教育部重大項目1項,出版著作4部,發表學術論文百餘篇。
  • 儒家倫理學是一種情感主義的美德倫理學
    正是由於儒家倫理學的非後果主義特徵,人們往往將其視為一種義務論。然而,由於任何倫理規範在某種意義上都可以視為一種義務,因此,任何規範倫理學都可以看作某種意義上的義務論。規範倫理學三大進路之間的區別不在於它們是否提出了一種義務論,而在於它們以何種評價性概念作為其義務論的基本概念。
  • 倫理與治理,人工智慧時代下的困境與出路
    總體而言,人工智慧的治理進程中的治理客體可以分為兩個部分:一是對技術本身的治理;一是對衍生問題的規範治理。對於人工智慧技術本身來說,技術的發展使得機器智能的邊界在不斷擴展。智慧機器人領域的研究已經持續了四五十年,不只是原始的工業機器人,服務機器人也有30多年的研究歷史。
  • 規範倫理學的四種進路-光明日報-光明網
    功利論、道義論、契約論和德性論是當代規範西方倫理學的四種進路。「進路」就是方法,即以某種基本原則或命題開始,展開倫理學的理論,提出倫理學具體原則和規範。進路不同,提出的倫理原則或規範也不同,從而使得倫理學理論呈現出多樣性的特色。
  • 表達價值觀(GVV):讓領導者衝破道德困境
    表達價值觀(GVV):讓領導者衝破道德困境 2012年07月06日02:08 來源:第一財經日報