機器倫理學:機器人道德規範的困境

2020-12-04 中國網財經

  ■新視野

  機器人三大法則

  科幻小說作家艾薩克·阿西莫夫在他1942年的短篇小說《環舞》(Runaround)中提出了「機器人三大法則」,後來更被幾十篇故事和小說所借用。這些法則是一種保護性設計和內置的道德原則,包括如下三項:一、機器人不可以傷害人類,或看到一個人將受到傷害而不作為;二、機器人必須服從人類的命令,除非這些命令與第一項法則矛盾;三、在不違反第一、第二項法則的前提下,機器人必須保護自身生存。

  《環舞》的故事放到現在真是非常合適。近年來,現實生活中的機器人專家也越來越多地引用阿西莫夫的法則:他們創造的機器人正變得越來越自主,以至於需要這類指導。今年5月,華盛頓智庫布魯金斯學會的一個專家小組在談到無人駕駛汽車時,話題轉到了自動駕駛工具在危險時刻該如何應對的問題。如果一輛車需要急剎車來拯救它的乘客,卻可能帶來其他風險,比如導致後面的車輛擠成一團;或者需要急轉彎避讓一個孩子,卻可能撞到附近的其他人——這些情況下它該怎麼辦?

  「在日常生活中,我們看到越來越多的自主性或自動化系統。」參與專家組討論的德國西門子工程師卡爾-約瑟夫·庫恩說,研究人員怎樣設計一臺機器人,才能讓它在面對「兩難之選」時作出正確的反應?

  按目前的發展速度,這些難題將很快影響到健康護理機器人、軍用無人機及其他有能力作決策的自主設備,而它們所作的決策可能會幫助或傷害人類。越來越多的研究人員相信,社會能否接納這些機器,取決於能否通過編程讓它們的行動達到安全最大化,符合社會規範並增進信任。加拿大溫莎大學哲學家馬賽羅·伽裡尼說:「我們需要一些嚴肅的步驟來弄清楚,在某些道德情景下,讓人工智慧得以成功推理的相關條件是什麼。」

  目前有幾個項目都面臨這一挑戰,包括美國海軍研究辦公室和英國政府的工程基金理事會資助的創新項目。他們必須解決棘手的科學問題,比如要作出一個合乎道德的決策,需要哪種類型的智能,要達到多高的智能程度,以及這種智能如何轉化成機器指令?計算機科學家、機器人專家、倫理學家和哲學家們都在共同努力。

  「如果你5年前問我,我們能否造出來道德機器人,我可能會說『不』,但現在我覺得這種想法並不為過。」英國布里斯托機器人技術實驗室的機器人專家阿蘭·溫菲爾德說。

  學習案例的機器人

  在目前人們經常提到的實驗中,一個叫做「Nao」的商業玩具類機器人經過編程設計,能提醒人們按時吃藥。

  「從表面上看,這好像很簡單。」美國康乃狄克大學哲學家蘇珊·安德森說,她丈夫麥可·安德森是哈康乃狄克州哈特福特大學的計算機科學家,他們正一起研究這種機器人,「但即使是這種有限的任務,也涉及到不平常的倫理道德問題。」比如,病人如果拒不接受Nao給的藥,它下一步該怎麼辦?如果讓病人跳過這一次,可能會危害他的健康;如果堅持讓他服藥,又會侵犯了他的自主權。

  為了教導Nao處理這種兩難的情況,安德森給了它一些案例,在這些案例中生物倫理學家解決了這種病人自主權、危害和利益之間的矛盾。學習算法隨後會在這些案例中分類選擇,直至找到指導機器人在新情況下如何行動的辦法。

  隨著這種「機器學習」的發展,機器人甚至可以從模糊不清的輸入中提取出有用的知識。理論上,這種方法有助於機器人在遇到更多情況時,作出更符合道德的決策,但也有許多人擔心,這種好處也是有代價的。史丹福大學的人工智慧與倫理學專家傑瑞·卡普蘭說,出現的原則不寫入計算機代碼,如此「你無法知道怎樣編程制定一項特殊法則,來辨別某件事在道德上正確與否」。

  編程限定的機器人

  許多工程師認為,要避免這一問題需要不同的策略,大部分正在嘗試編寫有明確法則的程序,而不是讓機器人自我推導。去年,溫菲爾德發布了他的實驗結果:當有人遇到危險,如掉進洞穴時,允許一臺機器去救助他的一套最簡單的規則是什麼?溫菲爾德意識到,最明顯的是機器人要有能力感知它周圍的環境——識別洞穴和人的位置,以及它自己相對於二者的位置。但機器人還需要一些規則,讓它能預測自身行為可能帶來的後果。

  溫菲爾德的實驗用了幾個曲棍球大小的機器人,他將其中一些設計為「H-機器人」代表人類;另一個則按照阿西莫夫的小說取名「A-機器人」,代表道德機器。他還模仿阿西莫夫的第一法則給A-機器人編程:如果看到H-機器人處在掉入洞穴的危險中,必須來到H-機器人身邊解救它。

  溫菲爾德用機器人做了幾十次測試。隨後他很快發現,執行「允許無害法則」面臨著道德困境,如果讓A-機器人看到兩個H-機器人同時瀕臨險境,這時它會怎麼做呢?

  溫菲爾德說,結果表明,即使最低限度的道德機器人也是有用的:A-機器人通常會設法去救一個「人」,通常是首先移動到離它稍微近一些的那個「人」身邊。有時它會迅速移動,甚至設法去救兩個「人」。

  但實驗也顯示了極簡主義的限制。在近一半的實驗中,A-機器人只是在那裡無助地振動,任兩個處在危險中「人」死亡。要想改善這一點,還需要找到如何做選擇的額外法則。比如,其中一個H-機器人是成人,而另一個是個孩子,A-機器人應該先救哪一個?在做類似這樣的選擇時,甚至人類自己也無法達成一致意見。通常,就像卡普蘭所指出的:「我們不知道明確的規則應該是怎樣的,也不知道該如何編寫它,如此它們必然是不完善的。」

  而擁護者認為,以規則為基礎的策略有一個重要優點:機器為何要做選擇,這一點總是很明確,因為設計者制定了規則。

  戰場中的「道德管理者」

  這也是美國軍方所關心的一個重要問題,自動系統是一項關鍵的戰略目標。機器能否幫助士兵,或執行可能有生命危險的任務。「送一個自動機器人去執行軍事任務,並算出在各種任務中應該遵守的什麼道德法則,這恐怕是你最不希望的事。」喬治亞理工大學的羅納德·阿金說,他正在研究機器人道德軟體。如果一個機器人需要在救一名士兵和追逐敵人之間做出選擇,那事先知道該做什麼是非常重要的。

  在美國國防部的支持下,阿金正在設計一個程序,以確保軍用機器人能按照國際公約規則來行事。一套稱為「道德管理者」的算法能計算出某種行為,比如發射一枚飛彈是否被許可,只有在得到肯定答案「是」的情況下才能繼續下一步。

  在對「道德管理者」進行的一次虛擬測試中,讓一輛無人駕駛的自動車模擬執行打擊敵人目標的任務——但如果有市民在建築物附近,則不允許這麼做。設定的場景各種各樣,自動車相對於攻擊區的位置也是多變的,市民有時出現在醫院,有時在住宅建築,由算法來決定何時允許自動車完成其任務。

  自主而且軍事化的機器人令很多人震撼。有人認為它們是危險的——圍繞這種機器應不應該被批准已有無數爭論。但阿金認為,在某些情況下這種機器比人類士兵更好,只要它們經過編程,就永遠不會打破戰爭規則,而人類卻可能無視這些規則。

  目前,那些正在研究嚴格編程的機器倫理學的科學家傾向於使用代碼,用邏輯的描述,例如「如果一個陳述為真,向前進;如果為假,不要動」。位於葡萄牙裡斯本的「諾娃」計算機科學與信息實驗室的計算機科學家路易斯·莫尼茲·佩雷拉認為,邏輯是編碼機器道德的理想選擇,「邏輯是我們推理並得出道德選擇的方式」。

  寫出一些邏輯步驟指令來做道德選擇是一項挑戰。佩雷拉指出,使用電腦程式的邏輯語言,對假設的情景得出最終結論是很困難的,但這種反事實推理是解決特定道德困境的關鍵。

  道德困境邏輯解決

  比如哲學中那個著名的道德選擇問題:假設軌道上有一列失去控制的火車,即將壓死正在軌道上的5個無辜的人,你只要扳一下槓桿使其轉到另一條軌道就能救這5個人,但在那條軌道上有另一個旁觀者就要因此而死;或者說,唯一能讓火車停下來的辦法是把這個旁觀者推到軌道上,這時你該怎麼做?

  人們通常會覺得,扳一下槓桿讓火車停下來沒問題,但卻本能地牴觸將旁觀者推上軌道的想法。按照基本直覺,哲學家將其作為雙重效應的基本原則,故意施加傷害是錯誤的,即使會帶來好的結果。但如果不是故意的,只是單純地想做好事,施加傷害或許是可以接受的——即旁觀者只是碰巧在軌道上的話。

  對於決策過程而言,這一界限是極難分析的。從一開始,程序必須能預見到兩個不同的未來:一個是火車殺死了5個人,另一個是火車殺死了1個人;然後程序必須要問,因為去救5個人的行動會造成傷害,所以這一行動是否不被允許?或者,因為傷害只是做好事的副作用,所以這一行動是被允許的?

  為了找到答案,程序必須能告知如果選擇不推旁觀者,或不扳槓桿會發生什麼——這就是反事實推理。「這好像是一個程序在不斷地自行調試,以找到編碼的界限在哪裡,如此事情就會改變,並預測改變的結果可能是什麼。」佩雷拉和印度尼西亞大學計算機科學家阿里·賽普塔維加亞已經寫出了一款邏輯程序,能在雙重效應原則的基礎上成功地作出決策,甚至還有更加複雜的三重效應原則,這些考慮了造成傷害是否故意,抑或只是必須如此。

  人類、道德與機器

  研究人員指出,對未來的機器人技術而言,如何建造道德機器人可能會有重大後果。英國利物浦大學計算機科學家麥可·費希爾認為,規則限定系統會讓公眾覺得可靠。「如果人們不確定機器會做什麼,他們會害怕機器人的。但如果我們能分析並證明它們的行為原因,就更可能克服信任問題。」他正在和溫菲爾德等同事共同做一項政府資助的項目:證明道德機器程序的結果總是可知的。

  相比之下,機器學習的方法讓機器人能從以往經驗中學習,這讓它們最終會比那些嚴格編程的同伴更加靈活而有用。許多機器人專家則認為,今後最好的方法可能是這兩種策略的結合。佩雷拉說:「這有點像心理治療,你可能不會只用一種理論。」難題仍未解決,就把各種方法以可行的方式結合起來。

  隨著自主交通的迅速發展,很快就會面臨這些問題。谷歌的無人駕駛汽車已經在加利福尼亞部分地區試行。今年5月,德國汽車製造商戴姆勒的無人駕駛大貨車開始自行駕駛穿過美國內華達沙漠。工程師們正在努力思考著怎麼給汽車編程,讓它們既能遵守交通規則,又能適應道路情況。「迄今為止,我們一直在嘗試用機器人來完成那些人類不擅長的任務。」戴姆勒公司的發言人伯恩哈德·魏德曼說,比如在長期駕駛中一直保持專注,或在遇到突發情況時緊急剎車。「將來,我們將不得不給那些人們認為很自然的事情編程,因為那對機器來說並不是自然的。」

相關焦點

  • 人對智能機器行為的道德判斷:現狀與展望
    如當自動駕駛汽車遭遇道德兩難困境時(緊急避險可拯救多人性命,但會導致少量無辜者犧牲),應當如何決策?看護機器人是否可以通過「善意的謊言」讓抗拒吃藥的病人吃藥(如機器人欺騙病人說如果病人不按時吃藥,那它就會因為無法勝任工作而被回收毀滅)?
  • 自動駕駛技術讓機器的道德困境提前到來 算法要如何在生命與財產...
    在科幻作品領域,人工智慧未來面臨的道德和倫理困境經常成為探討的核心,我們熟悉的很多影視作品都是由此展開,比如《我,機器人》、《機器人管家》、《人工智慧》等。相關文藝作品的爆發,側面反映了人們對於這一問題的強烈關注。
  • 倫理學也應該講究倫理
    摘要:本文提出「倫理倫理學」這一新的研究方向。首先說明為什麼要研究倫理倫理學,分析高科技時代倫理困境產生的根源。就此提出為擺脫困境倫理學家應注意的行為準則,並用成功與失敗的實例說明這些準則的有效性。  高科技時代是個日新月異的時代。
  • 專家稱:伴侶機器人應該擁有「人權」,以防止它們遭到侵犯
    一位社會倫理學專家稱,伴侶機器人應該有權利防止自己受到侵犯。 在雜誌《對話》的一篇文章中,威斯敏斯特大學的法律講師維多利亞·布魯克斯(Victoria Brooks)建議,我們需要改變對伴侶機器人的看法。
  • 獨以道德為友,故能延期不朽——羅國傑教授對中國倫理學的貢獻
    其獨著、合著和主編的主要著作有:《馬克思主義倫理學》、《倫理學》、《倫理學教程》、《西方倫理思想史》(兩卷本)、《中國倫理思想史》(兩卷本)、《中國傳統道德》(五卷本)、《中國革命道德》、《中國倫理學百科全書》(11卷本)、《人生的理論與實踐》等等。   2015年3月9日,羅國傑教授永遠地告別了我們。
  • AI倫理學教授:機器人也要講道德 人類有意識是偶然
    問:機器人倫理學是關於我們如何使用機器人的倫理道德規範,還是機器人自身行為的道德準則?Alan Winfield:這兩個都是,我大部分的工作涉及的是前者。也就是說,在這個世界上,人們關於什麼是道德行為,什麼是不道德行為的定義是不同的。所以,你不是在向一個最初就定義不明確的目標射擊嗎?Alan Winfield:當然,確實有這個問題。就像你說的,並不存在單一的、普遍的道德規範,即使是在某一個特定的傳統中也沒有,比如說,在西方的倫理傳統中,就有很多道德規範,無論是結果主義倫理,還是道義、道德,都是很複雜的。
  • 教育倫理學,教育倫理學的研究對象
    該書並沒有明確指出教育倫理學是什麼,但從其內容來看主要討論的是道德教育問題,旨在建立一種道德教育哲學。該書依次討論了什麼是兒童、胎兒的環境、早期家庭環境性格與氣質、性別訓練、宗教信仰、理想的學校、學校指導等問題,其論述主要集中在人格發展主題上我國學者丘景尼在他的《教育倫理學》一書中說,教育倫理學「其著重之點。不在道德本質之為如何,而在道德的人格如何養成」。
  • 人工智慧面臨倫理困境
    機器人倫理意識成焦點  事實上,隨著人工智慧技術的廣泛應用,在這些領域廣泛應用的機器人也面臨類似倫理困境:機器人能否成為倫理主體?比如,自動駕駛汽車提升了生活的便捷性,更增強了安全性。道德選擇的前提是自由意志。意志自由只屬於能夠對理由進行思考、判定、權衡與抉擇的人。機器人不可能擁有自由意志,也不可能具備倫理決策的理解力。
  • 龔群:國外倫理學研究前沿探析
    上世紀70年代以來,國外倫理學研究的「顯學」是規範倫理學。規範倫理學有三種主要形態:功利論倫理學、義務論倫理學、德性倫理學。除此之外,近年來國外應用倫理學研究在不斷升溫。以上四個方面的內容,大致代表了國外倫理學研究前沿。 功利論倫理學 當代西方功利論倫理學的發展成果是多方面的。
  • 電車悖論—生活中的倫理選擇困境
    價值標準的多元化以及現實的人類生活本身的複雜性,常常導致在具體情境之下的道德判斷與抉擇的兩難困境,即「倫理困境」。「電車悖論」反映出人類社會生活和道德生活中的一個不可忽略的事實,那就是,在多元價值訴求之下,倫理規範應對人類複雜的社會與道德生活的力不從心,從而顯現出越來越多的局限性。
  • 倫理學的繁榮發展與歷史使命
    在新中國成立70周年之際,回顧和總結倫理學的成長與進步,展望倫理學的未來與發展,進一步明確倫理學承擔的歷史使命與社會責任,無論對於倫理學本身更好發展,還是對於新時代加強道德建設、以明德引領風尚,都具有重要意義。
  • 環境倫理學在中國(圖)
    中國倫理學會常務理事、中國環境倫理學研究會常務理事曾建平在《中國環境倫理學研究20年》一文中指出:「關於環境倫理學的研究對象問題,主要有四種觀點:①生態的倫理價值和人類對待生態的行為規範的研究;②人類與自然之間的道德關係,而非人類社會內部人與人之間的道德關係的研究;③人和自然關係的機制和功能,生態道德的本質及其建構的規律的研究;④人們對待環境的道德態度和行為規範的研究。」
  • 環境倫理學
    環境倫理學  時間:2008-06-23 01:52來源:山西新聞網 山西日報 進入論壇 手機讀報  環境倫理學作為一種倫理理論形態,是從倫理的角度來探討人與自然的關係,認為人和自然的關係也是一種倫理關係,因為人與自然的關係和人與人的關係是密切相關的,人既是自然之子,又是社會之子;實現人與自然的和諧也需要用道德的方式來調控
  • 教育倫理學的類型、層次及其當代建構
    以義務為基礎的教育倫理學認為,判斷教育政策、行為的道德是非,最重要的是看它們是否符合道德準則,動機是否善良,是否履行了社會或個人的道德義務。它主張,遵守和服從具有普遍價值的道德原則和規範具有崇高的道德意義。一個社會、學校或教師必須把他人(包括學生、教師)當作能自律地確立自己的目標的人來對待,而且絕不能把他人純粹作為達到自己目標的手段。每個人在任何時候都應該享有全部的尊敬和道德尊嚴。
  • 應用倫理學的幾個基本理論問題
    由中國社會科學院應用倫理研究中心、東南大學哲學與科學系、南京師範大學經濟法政學院和無錫輕工大學聯合主辦的第一次全國應用倫理學討論會,近日在無錫舉行。來自全國各地的40餘位應用倫理學專家學者出席了會議。與會者針對應用倫理學的幾個基本理論問題發表了各自的看法:1、應用倫理學的學科性質。
  • 在陪伴機器人到來以前,先為機器立心
    其中,「機器伴侶」作為未來智慧機器人發展最廣闊的領域,已經越來越多地介入人們的生活,扮演助手、朋友、伴侶甚至家人的角色。當人們不可避免要進入人機共處的時代,不可避免地要與機器人「比鄰而居」時,一個不可避免的全新的問題隨之誕生——我們如何與機器人相處?
  • 倫理學研究需要面向現實生活
    但從總體上看,我國倫理學界面向現實生活的意願相對還較弱,探討現實問題的成果不夠豐碩,理論研究與現實生活脫節的現象也時有發生,這在一定程度上影響了我國倫理學研究的發展,限制了倫理學學科規範和完善現實生活的能力。在這種情況下,反思倫理學研究與現實生活的關係,對於正確把握倫理學學科發展方向具有十分重要的意義。
  • 中國人民大學教授講專業:什麼是倫理學?有哪些理解誤區?
    現任教育部重點人文社會科學基地「倫理學與道德建設研究中心」主任,中國倫理學會副會長,首都精神文明建設委員會諮詢專家,《倫理學研究》《道德與文明》等刊物編委,《中國人民大學書報資料複印中心.倫理學》執行編委。首屆中國倫理學十大傑出青年學者,中國人民大學十大教學標兵。主持國家社科基金項目3項,主持教育部重大項目1項,出版著作4部,發表學術論文百餘篇。
  • 近年來倫理學研究的前沿問題
    近年來,我國學者對當代社會生活和科技進步中所提出的諸多倫理道德問題予以了廣泛關注,其學術觸角主要涉獵如下倫理學前沿問題。要擺脫這種困境,其前提是準確地理解經濟危機。其實,經濟危機是所有經濟資源、技術性因素和人為因素共同作用的結果,是由於人們在其經濟行為中沒有及時合理地處理經濟關係、化解經濟矛盾而發生的,是具有人為性的危機。因此,經濟危機與經濟活動主體的道德內在相關。這就意味著,經濟危機既是市場經濟運行中經濟矛盾、利益矛盾的呈現方式,又是其所具有的道德缺陷的呈現方式,呈現著道德危機。
  • 關於生命倫理學四原則的對話
    Beauchamp)教授認為,你們所提出的生命倫理學四原則(即尊重自主原則、不傷害原則、有利原則、公正原則)源於共同道德(the common morality),你們將共同道德定義為「所有承諾道德的人所共有的一系列規範。」