學術| 劉憲權:人工智慧時代機器人行為道德倫理與刑法規制

2022-01-09 刑事疑案與刑法解釋

【作者簡介】劉憲權,華東政法大學教授,法學博士。
【文章來源】《比較法研究》2018年第4期。

【摘要】 機器人倫理是設定機器人法律制度的前提與基礎,本質上服務於人類利益。機器人倫理主要針對具有「獨立意志」的智慧機器人,具體包括機器人道德、機器人社會關係等。具體設計機器人法律制度時,應體現機器人倫理的基本內容,秉持承認與限制的基本原則:一是承認機器人的限制性主體地位;二是承認機器人權利,此種承認具有功利主義色彩,本質上是為了更好地實現人類利益。智慧機器人的行為應受刑法規制,智慧機器人的權益也應受到刑法保護。刑法視野下的智慧機器人具有犯罪主體地位,能夠實施絕大部分犯罪並承擔相應刑事責任;與此同時,智慧機器人應享有財產權等權利,侵害機器人權利的行為可能構成相應犯罪。【關鍵詞】 人工智慧;智慧機器人;機器人道德倫理;刑法規制;刑法保護 

   
  人工智慧時代已悄然來臨,人工智慧的迅速發展正深刻地改變人類社會生活、改變世界,並影響著國家的發展戰略。2017年7月8日,國務院《新一代人工智慧發展規劃》將發展人工智慧作為我國搶抓戰略機遇、構築先發優勢、加快建設創新型國家和世界科技強國的重要國家戰略。規劃指出,人工智慧成為國際競爭的新焦點,人工智慧是引領未來的戰略性技術,世界主要發達國家把發展人工智慧作為提升國家競爭力、維護國家安全的重大戰略;人工智慧成為經濟發展的新引擎,其將重構生產、分配、交換、消費等經濟活動各環節,形成從宏觀到微觀各領域的智能化新需求,催生新技術、新產品、新產業、新業態、新模式,引發經濟結構重大變革。在此重大社會變革之下,作為上層建築而存在的倫理、法律、政策也應當實現必要的調整與升級,按照規劃所提出的目標,實行「三步走」戰略:第一步,到2020年,「部分領域的人工智慧倫理規範和政策法規初步建立」;第二步,到2025年,「初步建立人工智慧法律法規、倫理規範和政策體系」;第三步,到2030年,「建成更加完善的人工智慧法律法規、倫理規範和政策體系」。然而,我國目前尚無與人工智慧緊密相關的倫理規範與政策法規,與人工智慧應用相關的民事與刑事責任確認等法律問題依然主要在傳統法律框架內解決,並且迄今為止圍繞該問題所展開的研究還極為匱乏。如果說在民事領域有限承認智慧機器人的民事權利能力已經成為現階段部分民法學者的呼聲,那麼在刑事領域有限承認智慧機器人刑事責任能力的主張或討論則顯得極為罕見。而事實上,人工智慧時代註定無法迴避後一問題。
  時下,因人工智慧與信息科技的進一步發展與提升,智慧機器人愈加接近於」人」。除在醫療、交通、災害應急處理等社會領域已經出現「人機合作」外,在某些特定領域(如智慧財產權領域),智慧機器人甚至能獨立創作出「作品」,其主體性、人格性、創造性特徵已初露端倪,並將會隨著人工智慧技術的進一步提升而愈發凸顯。既然智慧機器人愈加接近於人,並能夠逐步與人合作或完全替代人從事工作,那麼以下這些問題便應當得到理論上的回答:智慧機器人與人的區別是什麼?智慧機器人與人的法律地位之間是否有著不可逾越的鴻溝?是否應當賦予智慧機器人法律人格?當智慧機器人像人一樣實施了危害社會的行為時,僅僅以「人」為主體而構築的現行法律體系是否「過時」,是否仍然能夠應對人工智慧時代湧現的新情況、新問題?
  以上並不是單純的法律問題,同時也是深層次的倫理問題。康德將法與倫理相區別,法律與倫理之間的關係是哲學領域經久不衰的話題。目前已達成共識的是,倫理與法律作為兩種社會規範分別獨立存在,法律是外在的、強制性的秩序,倫理是內在的、求諸於個人內心的力量,二者剛柔並濟、相輔相成地調整著社會秩序。正是基於法律與倫理之間合作共生的關係,《新一代人工智慧發展規劃》將法律法規、倫理規範、政策體系並列,共同作為人工智慧時代社會治理的戰略目標。法律與倫理同為社會規範,都以社會為其發生的基礎,「法和倫理適應於社會,發生於社會……在沒有社會共同生活的地方,法和倫理雖然在觀念上可能,但是不具有現實性。法與倫理在它們同來之於社會這一點上,兩者並不矛盾」。[1]倫理與法律均為規範,規範是社會的產物,同時也反過來助推社會的發展,一方面,人工智慧時代與社會是人工智慧倫理規範與法律法規的發生基礎與現實來源,另一方面,人工智慧倫理規範與法律法規的快速建立與完善,也是人工智慧加速發展的必然要求與規範保障。
  值得指出的是,《新一代人工智慧發展規劃》在「三步走」戰略目標中對人工智慧時代的倫理規範、法律法規、政策體系分別作了不同順序的排位。第一步,到2020年「部分領域的人工智慧倫理規範和政策法規初步建立」,其將「倫理規範」置於「政策法規」之前,且並未使用「政策體系」、「法律法規」的表述;第二步與第三步,分別為到2025年「初步建立人工智慧法律法規、倫理規範和政策體系」、到2030年「建成更加完善的人工智慧法律法規、倫理規範和政策體系」,不難發現,此時其將「倫理規範」的位置略微後移,置於「法律法規」之後、「政策體系」之前。排位上的前後差別恐怕並非偶然無意之舉,而自有其深意。在人工智慧時代初期,與人工智慧緊密相關的法律法規一片荒蕪,初創法律法規須以倫理為土壤,只有解決了新時代的道德、倫理等基本問題,才有可能制定出符合時代要求與順應人們內心準則的法律。因此,初創人工智慧法律法規應當遵循從倫理走向規範的路徑。而當人工智慧時代深化發展到一定的程度,人工智慧法律法規已漸成體系之時,倫理勢必要謝幕於歷史的主場,退居於次要地位,更多表現為對法律的輔助。倫理與法律在不同歷史階段的角色與彼此之間的互動規律,反映著人類社會規範的產生過程,我們在構建人工智慧法律體系時顯然不能無視這一過程。在機器人廣泛介入人類生活的人工智慧時代,道德、倫理問題必須首先得到充分的討論。故本文主要通過分析智慧機器人的道德、倫理,探究機器人的法律地位和法律權利,並在此基礎上解析智慧機器人在刑法體系中的地位以及對應的犯罪範圍與受保護範圍。

 

  雖然人工智慧的概念首次提出於1956年的達特茅斯會議上,但從一項技術、產品演進為一個時代並切實影響著人們的生活卻是近年來才發生的事情。人們將人工智慧稱為一個「時代」不僅僅是因為人工智慧技術的提升與應用改變了人們社會生活的方方面面,更在於人工智慧呈現出了以往從未有過的特徵,即主體性、人格性、創造性等。智慧機器人在代替人類從事工作的過程中,已慢慢呈現出擺脫工具地位,漸獲主體地位的趨勢;在深度學習、神經網絡原理與大數據技術的支持下,智慧機器人已可獨立創作「作品」,符合獨創性的特徵;在某些發達國家,智慧機器人甚至已經被賦予「工人」地位或給予「戶籍」。上述種種現象似乎已經與既有的人類倫理產生衝突,使得我們必須重新審視機器人本身以及人類與機器人之間的關係。純粹的機器人工具主義是否會遭到時代與世界的拋棄,最終在歷史舞臺上離場,取而代之的是經過時代更新的倫理?機器人的倫理與規範問題必將成為人工智慧時代社會科學研究的重要課題。人工智慧的法律制度安排離不開倫理基礎與價值取向,機器人倫理是研究機器人規範、機器人刑法的重要前提。對機器人倫理的思考應具有一定的前瞻性與超越性,並著重於控制、預防機器人發展、應用過程中的風險,使機器人在發揮有益於人類社會的價值的同時不至於侵害人類的基本利益。筆者認為,機器人倫理涉及文化、意識的碰撞,主要表現為機器人道德、機器人與自然人的關係等問題。
  (一)機器人道德應當被賦予和認可
  機器人道德是具有自主意識的智慧機器人判斷某種行為正當與否的基本標準與準則。機器人道德是智慧機器人的必備內容,是人類社會對智慧機器人融入社會生活最低限度的要求。道德是後天養成的,而非先天即有,這也意味著道德並非專屬於自然人,智慧機器人也可通過後天養成道德。機器人需要道德並非一個偽命題,儘管目前的機器人尚未有道德,但這並不意味著未來的智慧機器人不需要道德。機器人需不需要道德與如何形成機器人道德是兩個不同層面的問題。我們不能因為將道德「加載」於機器人存在技術困境,便簡單地認為機器人無需道德。事實上,智慧機器人大面積應用於社會各領域,必然會涉及機器人道德問題。例如,殺傷性軍用機器人如何區分平民、傷患、投降者和恐怖分子,在同時存在大量恐怖分子和些許人質的情況下是否選擇攻擊等。又如,家庭服務型機器人如何在照顧家庭成員的過程中,區分傷害與救助。再如,醫療型機器人在手術過程中對病人造成的「傷害」或者「治療」,何時、何種程度才能被認為是不道德的,甚至在傳統的「電車難題」、「洞穴奇案」倫理困境中,機器人又會如何作出選擇?以無人駕駛機器人道德實驗的「隧道問題」為例,當你乘坐的汽車高速行駛至隧道口,一個兒童冒了出來,走到了路中間,正好擋住了隧道的入口,此時通過剎車來避免事故發生已為時晚矣。無人駕駛機器人只有兩個選擇:一是直接衝過去,但這會導致兒童死亡;二是快速轉向撞向隧道的任意一邊,但這會讓你喪生。很顯然,這一道德困境即便人類也沒有「正確答案」,但無人駕駛機器人卻必須面對並作出選擇。上述所言都是機器人在快速、廣泛、深入社會生活中所可能面對的道德、倫理問題。機器人的自由程度越高,就越需要道德標準。機器人感知力的提升、自由化程度的提高所帶來的不僅僅是工作效率的提升、社會成本的降低,更多的是系統性風險。機器人「加載」道德的目的並不是為了使機器人成為獨立的物種,真正平等地參與社會生活,而是為了控制人工智慧技術發展所致的系統性風險。這裡的系統性風險主要是指機器人在發展、應用過程中,由於技術、外力、故障等各種原因所可能導致的對人類、社會、國家的危害。
  機器人道德的主體是機器人,而非設計者或使用者。曾經有人提出機器人的道德選擇應該由設計者、使用者設定或者由法律規定。「機器道德決定的作出是基於一種程序或軟體,從深層理解,卻是來源於機器的使用者,因此在軟體設計上體現一種道德的力量,可能是關鍵和必要的。」[2]哲學、倫理學和計算機科學等領域的學者已經提出了「人工道德」的概念,隨著機器人智能水平的提高、獨立自主性的提升,對於自主性越來越強的智慧機器人來說,它們完全可能成為人工道德的主體。因此,機器人的設計者、使用者或法律規定的道德選擇並不在本文所討論的機器人道德問題的範疇內。事實上,機器人可以具有道德並非天方夜譚,更非無稽之談。國外已有人進行類似的實證研究,美國機器人研究專家阿金(Ronald Arkin)為了使軍用機器人比人類更具有人性,在機器人系統中設計了「人工良心」,並公開徵求機器人應遵循的道德規範。[3]賦予機器人道德能力需要讓機器人在一個道德判斷情境中模仿人類的決策過程。首先,機器人應能意識到一個道德判斷情境,並依循所布建的推理策略,包括道德原則、基準與價值等,才能在多樣化的情境之下判斷並處理道德信息,並作出相應敏感判斷;特別是在道德兩難的情境下,在不同道德原則相互衝突時,作出「合情、合理的決定」。機器人道德不可能也不應該脫離人類道德,這就意味著對機器人的設計者提出了較高的要求。在機器人的設計之初,便應將人類的基本道德原則以算法形式加入其中,並在其後的深度學習養成過程中進行不斷的修正,以免出現機器人自以為「道德」但實際已嚴重背離人類道德觀念的情形。這一重要的機器人設計要求應當體現在日後的機器人法律制度之中,以法律之形式明確設計要求才可有效控制機器人「無道德」或「非道德」所帶來的風險。相應地,如果機器人的「道德算法」出現問題時,機器人的設計者、使用者應根據主觀過錯程度與客觀危害結果承擔相應責任。例如,如果機器人的設計者在機器人的智能程序中取消了不能傷害人類的「機器人三法則」,[4]那麼在機器人失控並造成危害結果的情況下,設計者就應承擔相應責任。又如,如果機器人的使用者故意將關於違法犯罪內容的大數據灌輸給機器人致使其嚴重背離人類道德並實施違法、犯罪行為的,就應追究使用者的法律責任。
  當機器人能夠且應當擁有道德時,其不道德的行為便存在了可譴責的基礎,所謂道德非難才成為可能。從機器人的設計上來看,只有具備「人工道德」的機器人,才可以因不道德行為而受到非難,並承擔相應責任。對於具備「獨立意志」、「人工道德」的機器人,其自身獨立於機器人的設計者,應對自身行為及其所造成的後果負責。
  (二)機器人與自然人的關係不應是平等的
  機器人的社會關係包括機器人與自然人的關係以及機器人與機器人之間的關係,其中最為重要也最具有現實意義的是機器人與自然人的關係。機器人與自然人的關係是隨著歷史發展、科技進步而逐漸產生變化的,其具體表現主要是取決於機器人自身的倫理地位。「對機器人倫理地位的思考正在成為人類不可迴避的價值基點。機器人作為一種打引號的『他』,不是動物的它,也不是人類的他,而是一種介於他和它之間的準他者。只有承認機器人是一種存在,承認其獨立的倫理地位和內在價值,保持『他』作為存在的完整性,人類才能和機器人和平共處,才能在與機器的結合中發展出恰當的倫理規範。」[5]機器人主體性、人格性、創造性的形成使得機器人的倫理地位成為了人們未來必須考慮的問題。在很長的一段時間內,機器人只能是自然人的「工具」,機器人的「工具」地位根深蒂固於人們的觀念之中,以致有些人很難接受機器人主體地位的觀點。然而,在人類的想像和對未來的預測之中,機器人在各方面均能夠媲美甚至超過人類,其不僅可能獲得主體地位,甚至可能會成為人類的「主人」。這一現實接受度與未來接受度的差異來源於人類對科技發展的複雜態度,並隱隱契合了人類心理與利益。人類一方面希望人工智慧技術不斷發展,機器人的智能性等能夠媲美或者超越人類,最終實現替代人類從事工作的願望;另一方面又害怕機器人在能力提升的同時會脫離人類的掌控,進而危害乃至奴役人類。著名理論物理學家霍金在2014年接受BBC採訪時就斷言人工智慧可能意味著「人類的末日」。[6]這一複雜的心理態度從另一側面展現了機器人的益處與風險。從科技發展的角度來看,以往的機器人本質上是基於自動化技術的機械電子裝置,不具有人的屬性,更不能與人進行無障礙、自由互動,因而將其視為工具無可厚非。但在人工智慧技術革新與大數據支持的背景下,機器人已經邁向高度智能化,能夠獨立自主地活動而無需由人事先設定或發出指令。從機器人與自然人的關係來看,機器人的地位正在逐漸發生變化。可以預見的是,未來自然人與機器人的主從關係將慢慢淡化,取而代之的是近乎於平等的關係,機器人的主體地位正在逐步顯現。深圳一女子欲與機器人結婚,前往民政局進行婚姻登記,系全國首例自然人慾與機器人結婚的事例。[7]從圖靈測試開始,人工智慧的目標早已不是純粹的運算能力與感知運算,「情感計算」也是人工智慧的重要發展方向。人們希望與機器人展開情感交流,期盼機器人在完成工作與任務之餘能滿足人的情感和心理需求,而不是面對一具冷冰冰的機器。現實的人類需求孕育出越來越多具備情感計算能力、能與人類進行感性交流的技術和產品,比如菲比小精靈和真娃娃機器人玩偶,一個叫「帕羅」的機器海豹,甚至可以用來充當老年人的伴侶動物。[8]2010年11月7日,「帕羅」成為了首個獲得「戶籍」的機器人,「帕羅」的發明人在戶口簿上的身份是父親。[9]人類與機器人產生感情並不是無意義的臆想,而是具有科學依據。日本豐橋技術科學大學(Toyohashi University of Technology)和京都大學(Kyoto University)的研究人員為人類與機器人的情感共鳴能力提供了神經生理學依據。[10]機器人主體地位的趨勢已經形成,我們應當正視這一社會倫理現象,考慮賦予其適當的法律資格與地位,制定並完善相關的法律制度。
  可以肯定的是,機器人絕不可能獲得完全的、不受限制的、與自然人平等的主體地位。眾多科幻電影、未來學家早已警告人們:人工智慧若不受控制地發展下去,將會滅絕人類。即便不會使人類滅絕,人類也絕難接受與機器人共同治理社會、分享資源的局面。正是基於保護人類、維護人類利益的理由,機器人的倫理地位只能是也至多是限制性主體地位,這一原則應始終予以貫徹,並在法律制度中予以體現。筆者認為,即便未來有一天機器人真的能夠成為「其他人」,法諺「法律面前人人平等」也不應適用於自然人與機器人之間。機器人限制性主體地位意味著當自然人利益與機器人利益產生衝突時,原則上應保障自然人利益,在絕大多數領域內,自然人與機器人之間不應存在法律意義上的平等


  

  機器人倫理是研究機器人法律屬性的前提與基礎,機器人倫理的研究成果能夠為機器人的法律屬性提供研究依據。機器人的倫理地位、機器人與自然人的關係都應體現在機器人的法律屬性、法律制度之中。上述機器人倫理的內容可總結為機器人的法律制度安排所必須遵循的基本原則:承認與限制。智慧機器人的規範研究與制度安排應始終堅持上述基本原則。在智慧機器人的法律人格、法律權利與責任等問題上應秉持承認與限制的基本立場,這一立場實質上是賦予機器人限制性主體地位,而非與自然人完全平等的主體地位,因此在自然人與機器人的利益博弈、衝突中應堅持自然人利益優位。
  (一)機器人的法律地位
  機器人倫理是構建機器人法律制度的基礎與前提。以機器人的法律地位為例,儘管我們能夠通過技術操作滿足機器人法律地位的條件,但其背後的倫理基礎顯然是無法通過解釋技巧進行補足的。因此,機器人的倫理地位與機器人的法律地位息息相關。機器人倫理地位不僅取決於社會的態度,更與人工智慧技術存在重要關聯。機器人主體性、人格性、創造性的凸顯是人工智慧技術迅速發展的高科技結果,沒有這些科技,機器人永遠只能是工具。人工智慧技術使得智慧機器人具有越來越多的可能性,在情感、軍事、服務等領域都有突出的表現。例如,Packbot機器人在成功執行了35次任務後,不幸被炸壞,而後有幾名士兵懇求修復它,因為它曾救過自己的命。又如,性愛機器人在日本、歐洲相繼出現並流行,也有人提出希望與其成為伴侶。可以預見的是,智慧機器人的倫理主體地位終將會得到人們的認可,這一需求必然會反映在法律制度的構建上。機器人的主體地位雖然目前只是一種學術觀點,但這一趨勢必然會繼續演進下去直至落實到法律實踐之中。
  承認機器人的倫理主體地位是構建智慧機器人法律人格的前提與基礎。智慧機器人已然不同於普通的機器,存在賦予其法律人格的正當化依據。可以肯定的是,目前智慧機器人已具有以下能力:(1)模仿任何其他機器的行為;(2)好奇心(即為了研究它們的環境總是在移動);自我識別(即對它們自己的視覺能作出反應);相互識別其同類機種的成員;(3)從它們自身的錯誤中學習;(4)像人一樣「有創造力」和「有目的」,甚至會「尋找它們力所能及的目標」;(5)再生自己的能力;(6)「通過自我修復機制而有無限的使用壽命」。[11]「沒有理性的東西只具有一種相對的價值,只能作為手段,因此叫作物;而有理性的生靈才叫作『人』,因為人依其本質即為目的本身,而不能僅僅作為手段來使用。」[12]智慧機器人具有理性已是不爭的事實,具有思維與意志亦是可期的未來。
  法律的功能是將社會現實中紛繁不同、各具特點的人,以統一的標準人、制度人的方式抽象構建出法律上的人。[13]應該看到,時下將智慧機器人作為法律人對待仍存在法理上的困惑。在法學發展的歷史中,法律人的構建有許多不同的法學流派,自然法學派以「自然人」為基點,以人性為視角構建出在人類共性之上的「抽象人」。[14]功利法學派也同樣以人性為視角,二者的區別是,自然法學派以「理性人」為基礎,而功利法學派以「現實人」為基礎。分析法學派則認為人生存於制度之中,依附於制度而獲得相應的權利與自由。[15]凱爾森認為:「法律上的人並不是在『它的』義務和權利之外的一個分立的實體,而只是它們的人格化了的統一體,或者由於它的義務與權利就是法律規範,所以不過是一批法律規範的人格化了的統一體而已。」[16]筆者認為,我們將智慧機器人作為法律上的人或者賦予智慧機器人法律上的人格並不是天方夜譚,更不必有背離法學基礎理論的擔憂。自然法學派與功利法學派從人性角度解構法律人,而分析法學派從規範與制度角度解構法律人,兩者都具有相當深厚的理論基礎。從法規範本身來說,法律人的構建源於規範而非源於人性。法律人這一概念的出現,是通過法律制度將人的概念予以類型化的結果。「人之所以為人,並不是因為他是一種有肉體和精神的生物,而是因為根據法律規則的觀點,人展現了一種自我目的。這樣為了證明人類群體可能可以具備法學人格,我們不需要證明人類在生物學上是相同的客觀實體、組織,而是需要證明自我目的在人類群體當中和在個體的人身上的體現是一致的。」[17]因此,將沒有生命體的智慧機器人作為法律人是具有現實可能性的。超越程序設計與編制範圍、基於獨立意志進行活動的智慧機器人,完全可以證明自我目的,具備法律人格的基礎。此外,也有學者提出從「倫理人」到「科學人」的轉變。[18]「無論如何,法律人格總會隨著時代變遷豐富其內涵。值得肯定的是,法律人格在其歷史發展過程中,起源於倫理性,又最終超越於(而非脫離)倫理性;倫理性在一定層面上仍是其深層基礎,完全徹底拋棄倫理性這一本源很可能會讓法律人格迷失方向和喪失進一步發展的動力。」[19]
  既然智慧機器人具備法律人格的基礎,那麼將其作為法律主體對待是否會對法律上「人」的概念產生致命的衝擊?應當看到,法律上「人」的概念並非一成不變。隨著時代的變革與理念的轉變,法律上「人」的內涵與外延經歷了不斷的演進與變化。正如同「法人」這一概念的確立擴大了法律上「人」的概念與範疇,人工智慧時代智慧機器人法律人格的創設也可依跡而循。因此,將智慧機器人作為法律上的「人」似乎是契合時代潮流的。事實上,雖然我國法律目前沒有規定智慧機器人的法律人格與權利義務,但世界範圍內早已有國家或組織針對該議題進行研究或立法。可見,立法上賦予智慧機器人法律人格與權利義務並非完全不可能,世界範圍內已有先行者的前沿立法活動。
  (二)機器人的法律權利
  機器人權利是機器人倫理與規範研究的重要內容。在承認法律人格之後,機器人的權利自然而然便是我們研究的重點和方向。承認與限制的基本原則應始終貫穿於機器人倫理與規範研究之中,在機器人權利的領域內亦不例外。機器人權利具有合理性,隨著人工智慧向縱深發展,機器人的權利必將得到承認。與此同時,機器人也應承擔自己行為所致責任,這是基本法理之所在。在承認的基礎上,對機器人的權利類型、範圍也應當以倫理為依據進行限制。這一限制取決於自然人與機器人之間的關係,正如前文所述,無論如何自然人與機器人都不可能平等相處,人類不會容許機器人與人類共同治理國家的情形出現。即便機器人真的有可能達到與自然人無異,兩者也不可能平等相處。
  承認機器人的權利具有必然性。機器人權利應該得到承認的根本原因在於機器人權利具有合理性。主張機器人權利的觀點並非一家之言,亦非空中樓閣。早在20世紀便有學者對機器人權利與責任進行研究。1964年,麻省理工學院的美國哲學家普特南(Hilary Putnam)認為當機器人技術足夠成熟時,機器人對權利便會有所要求。[20]2000~2011年間,也有外國政府、研究機構等召開研討會,討論「機器人與權利」。[21]直至2017年,機器人權利與責任已經從學術研究轉變為現實的立法例。歐盟法律事務委員會主張機器人的「工人」身份並賦予其特定的權利義務;日本、韓國也起草了《機器人倫理憲章》等規範性文件。[22]針對機器人權利的說法,也有反對的聲音。「即便是機器人可以進行一定程度的自我進化,這也並不意味著人對這種進化的方向與速度失去可控性。假如機器人可以進化到成為擁有生命意識、自我生存欲求和發展目標能力的新型物種,我們就必須及時阻絕這種事態,絕對禁止這種可能提出權利要求的失控物對人類利益造成威脅與損害,這是我們觸及與機器人相關的倫理道德問題時的核心關切之所在。」[23]應當看到,這一反對只不過是將限制的立場發揮到極致,核心在於保守的觀念與對人工智慧技術發展的悲觀。一些保守的社會科學學者無法接受這一立場情有可原,畢竟科學技術的發展速度早已超出一般人的理解。「最終,人類不僅可以把機器人看作是機械奴隸、生產品和買賣物,而且可以看作是有其自身權利的實體。通觀整個法律史,權利的每次向某種新實體的繼續延伸總是有點不可思議的。我們傾向於設想無權『事物』的無權性是大自然的一種天意,而不是一種出乎支持某種現狀的法律協定。」[24]
  在承認機器人權利的基礎上,限制機器人的權利亦符合人類利益。「人權是一個重要的倫理、法律與政治概念,而機器人權利更多地屬於倫理、科技與安全的範疇。」[25]美國未來學家庫茲韋爾的奇點理論認為,技術的加速發展會導致一個「失控效應」,人工智慧將超越人類智能的潛力和控制,迅速改變人類文明。人工智慧奇點的來臨使得機器人能夠完全獨立、自主升級、進化,人類已經無法理解機器人的世界。奇點帶來的失控可能是人類與機器人共生,亦可能是人類完全被奴役甚至滅絕。所以,為了避免人類的滅絕,也為了人類的共同利益,限制是必然得到共識的基本立場。
  值得注意的是,機器人的權利只能由法律明文規定,「天賦人權」無法適用於機器人。機器人畢竟不是普通法律意義上的人,自然人的法律權利諸如憲法權利、民事權利等均無法及於機器人。在機器人權利的具體內容上,不同類型、不同智能水平的機器人所享有的權利應當是不同的。有人提出無人汽車應當有「路權」,即通過制定法律規定路面上車身前、後一定距離內為無人汽車獨自佔有。機器人被攻擊時應有「自衛權」,機器人外科醫生應有執照和行醫權。機器人為了有效地服務社會和便於公眾接受,應當擁有相應的權利保障,機器人要遵紀守法,也要有權利。[26]此外,具有獨立、自主意識的智慧機器人不應被視為自然人的財產,而應受到最基本的尊重。[27]人類不能肆意處置、虐待或者拋棄此類機器人,針對機器人的利益也應當通過立法進行保護。
 

  機器人倫理規範在機器人法律制度中的體現不僅應包含對智慧機器人法律地位、法律權利的承認與限制,還應包括對智慧機器人的規制與懲罰。這一內容尤其體現在與倫理規範息息相關的刑法之中。人工智慧時代的來臨,不僅為社會帶來效率與紅利,也帶來了諸多的智慧機器人風險。刑法如何應對智慧機器人風險,如何規制與懲罰智慧機器人是未來研究的重要內容。我們首先需要面對的問題是,智慧機器人能否成為犯罪主體?智慧機器人可以實施何種犯罪?
  (一)智慧機器人可以成為犯罪主體
  智慧機器人能否成為犯罪主體取決於其是否符合刑法所規定的成為犯罪主體的條件。根據我國《刑法》17條的規定,犯罪主體需具備以下條件:(1)實施了嚴重危害社會的行為;(2)具備刑事責任能力;(3)依法應當承擔刑事責任。其中第(3)點條件的成立來源於立法,在第(1)點和第(2)點成立之後,由立法明確其犯罪主體地位。正如單位犯罪在1979年《刑法》中尚未出現,經由1987年《海關法》的附屬刑法確立了單位(法人)犯罪一樣,智慧機器人犯罪是否可以依法承擔刑事責任本身並不是決定智慧機器人能否成為犯罪主體的實質條件,而是立法者在肯定智慧機器人具備刑事責任能力並能夠實施嚴重危害社會行為之後在立法上的選擇與回應。第(1)點和第(2)點才是決定智慧機器人能否成為犯罪主體的本質要件,第(3)點只是罪刑法定原則下對前兩點在形式上的固定化、法定化。如若符合第(1)點和第(2)點,則可在刑法第二章第四節單位犯罪後增設一節智慧機器人犯罪,承認其主體地位。
  1.智慧機器人能夠實施嚴重危害社會的行為
  本文所言可歸責於智慧機器人的犯罪行為,是指在程序設計與編制範圍之外,智慧機器人基於獨立「意志」所自主實施的犯罪行為。對於智慧機器人按照程序設定的目的實施犯罪行為的,應歸責於智慧機器人背後的程序設計者以及智慧機器人的使用者等人。此時智慧機器人僅是工具,而非主體,故危害結果不應也無法歸責於智慧機器人本身。智慧機器人對社會造成損害的情形在世界範圍內並不罕見,只是大部分不是智慧機器人基於獨立意志所自主實施的行為,而多是由於機器、程序故障或操作失誤所致。例如,德國大眾汽車廠「機器人殺人」事件其實是生產安全事故而非智慧機器人基於獨立意志所自主實施的行為。工人在工作過程中不慎觸發機器人的程序而受到機器人的誤傷,因而導致了死亡結果。目前看來,在軀體層面,智慧機器人完全擁有實施嚴重危害社會行為的能力,而在意識層面,尚不能超越程序控制而產生自主意識。但可以預見的是,基於深度學習技術、神經網絡學習技術與大數據技術的發展,在不久的將來,智慧機器人完全可能產生超越於程序控制的自主意識。未來實驗室首席戰略與創新官特雷西·弗洛斯認為,人工智慧和機器學習技術將幫助機器人擁有自動編程並實施犯罪行為的能力,並預言到2040年機器人犯罪率將超過人類。[28]
  2.智慧機器人具有辨認能力和控制能力
  辨認能力是控制能力的前提,只有具備辨認自己行為是非對錯的能力,才可根據這種認識對自己的行為進行控制。對於有生命體的自然人來說,只要達到刑事責任年齡、精神正常便被視為具有辨認能力與控制能力。對於單位來說,刑事責任能力是單位內部自然人個人辨認、控制能力的集合,但又超越自然人,表現為超個人辨認、控制能力的一種集體意志。但智慧機器人既無生命體,亦無法根據精神狀況與刑事責任年齡認定其辨認和控制能力,更無法根據集體意志與法定存在形式認定其辨認和控制能力,智慧機器人的辨認能力與控制能力來源於程序的設計、編制與物理硬體的聯合作用。由人類設計、編制的程序使智慧機器人具有了獨立思考和學習的能力,這種能力使得智慧機器人可以產生獨立、自主的意識和意志。在這一意識與意志的支配下,程序與硬體為智慧機器人的辨認能力與控制能力提供了物理基礎。應當看到,只有同時具備辨認能力和控制能力,才可以承擔刑事責任。在程序設計範圍內進行活動的智慧機器人由於受制於程序,因此不具有控制能力,也就不具有承擔刑事責任的能力。另外,刑法意義上的辨認能力是對行為的性質、後果、作用的認識能力,這種認識包括事實層面的認識和規範層面的認識。事實認識是一種形式上的認識,智慧機器人可以通過其「電子眼」、「電子耳」認識到事實。但對行為性質、作用的認識是一種規範認識,僅依靠物理硬體是不可能完成的。即便是自然人,其認識行為的性質、後果、作用的能力也並不是一蹴而就的,而是在成長過程中,逐漸在家庭乃至於社會生活中體會到規範秩序並由此形成規範意識。筆者認為,在智慧機器人的程序設計與編制中加入深度學習法律與規範的部分,將大量的法律、規範性文件、案例作為智慧機器人的學習內容,由此使機器人產生規範意識。相較於辨認能力,控制能力的實現是智慧機器人的必備能力,是程序設計與編制的必需內容。智慧機器人擁有極快速的處理能力、反應速度和極精準的控制能力,能夠憑藉大數據與高速運算能力對行為進行精準的控制。與自然人相比,智慧機器人具有超強的控制能力與可培養的辨認能力,即智慧機器人具有承擔刑事責任的可能性。至於智慧機器人承擔刑事責任的具體內容與方式,則必須與智慧機器人所享有的權利有所對應。因為刑罰是一種必要的害惡,是對犯罪人權利的剝奪與合法侵害,在現行法律體系並未確立機器人權利的情況下,現行刑法也不可能存在可以直接適用於機器人的刑罰。必須根據智慧機器人所享有的權利類型重新建構刑罰體系,以實現刑罰的目的。
  (二)智慧機器人犯罪的範圍
  刑法分則共有十章,分別為危害國家安全罪,危害公共安全罪,破壞社會主義市場經濟秩序罪,侵犯公民人身權利、民主權利罪,侵犯財產罪,妨害社會管理秩序罪,危害國防利益罪,貪汙賄賂罪,瀆職罪和軍人違反職責罪。對上述十類犯罪而言,自然人完全能夠實施,智慧機器人則不然。智慧機器人能夠實施犯罪的範圍取決於智慧機器人自身的特點。智慧機器人與自然人的共同點決定了兩者都可實施的犯罪的範圍,智慧機器人與自然人的不同點則劃分出了智慧機器人無法實施犯罪的範圍。
  實施犯罪的範圍取決於犯罪主體的特點。單位作為刑法明文規定的主體,能夠實施諸多破壞市場經濟秩序、妨害社會管理秩序的犯罪(較多地體現為法定犯),但其無法實施侵犯公民人身權利、民主權利的犯罪(較多地體現為自然犯)。眾所周知,刑法中法定犯與自然犯的最大區別在於是否違背倫理道德。由於單位不具有倫理道德,其不可能實施具有違背倫理道德特性的自然犯類別的犯罪。對智慧機器人而言,其儘管不具有生命體,但是,正如前述,其具有倫理與道德,能夠實施違反倫理與道德規範的行為,並進而在構成相應的自然犯類別的犯罪上沒有障礙。應當看到,智慧機器人能夠實施刑法分則規定的大部分犯罪,只有極少數犯罪因其自身特性而不具有實施的可能性。智慧機器人與自然人具有較多的共同點,因此以自然人為主體的刑法罪名往往也能夠適用於智慧機器人。以刑法分則第五章侵犯財產罪為例,智慧機器人可以實施絕大部分犯罪,如搶劫罪、盜竊罪、詐騙罪等。但是,基於身份所實施的犯罪,智慧機器人有些因不可能具有這種身份而無法單獨實施(例如,貪汙罪、受賄罪、挪用公款罪等罪的主體只能由國家工作人員才能構成,而智慧機器人顯然不可能具有這種身份),有些則完全可能單獨實施(例如,智慧機器人醫生可以成為醫務人員而實施醫療事故罪)。毋庸諱言,時下儘管智慧機器人具有替代人進行工作的功能,甚至在醫療、法律、金融領域都有不俗的表現,但由於其在身份認定上還存在較大困難,智慧機器人單獨構成刑法分則要求具有特定身份的犯罪仍然有很大障礙。但是,我們也應該看到,雖然時下智慧機器人尚無法單獨成為身份犯罪的正犯,但是我們完全可以用身份犯共同犯罪的規定和原理,對智慧機器人的幫助、教唆等行為加以評價。不過,隨著智慧機器人不斷深度融入人類社會,賦予智慧機器人某些特定身份的圖景可能遲早會到來,到那時智慧機器人犯罪與自然人犯罪在主體範圍上可能更為接近。
  (三)智慧機器人與一般機器人的區別
  在人工智慧時代到來之前,筆者就已提出「機器人」[29]可以成為犯罪對象的理論。具體而言,行為人冒用他人信用卡,在ATM機上取錢的行為構成信用卡詐騙罪,此時,ATM機是被騙對象。筆者認為,ATM機既不是機器也不是人,而是「機器人」。這是因為,程序設計與編制賦予了ATM機類似於銀行櫃員的識別功能,替代銀行櫃員進行金融業務。[30]當時尚未出現智慧機器人,作為一般機器人的ATM機僅能成為詐騙罪的對象,不能成為詐騙罪的主體,即機器人無法實施詐騙行為並為此承擔刑事責任。主要理由在於:(1)機器人雖然具有部分人的功能,但不足以主動實施詐騙行為。程序設計與編制賦予了機器人部分人的功能,這部分功能主要是指識別功能,包括驗證帳戶、密碼以及人的真實性等。一般而言,識別功能是被動的而非主動的,是程式化的而非創造性的。所以,機器人僅能在識別功能的範圍內運作,而不可能超出識別功能的範圍去實施欺騙行為。(2)識別功能尚不足以被評價為刑法中的辨認能力。實施詐騙行為並承擔刑事責任的重要依據在於實施者的辨認能力與控制能力,機器人的識別功能還遠遠達不到一般自然人的辨認能力。正如前述,辨認能力不僅是對事實的認識,更是對事實所蘊含規範意義的認識,作為詐騙類犯罪對象的機器人最多只能認識到事實(包括錯誤的事實),而不可能認識到事實的性質、作用等規範層面上的意義。因此,機器人僅能作為詐騙類犯罪的犯罪對象,而不能作為詐騙類犯罪的犯罪主體。
  然而,人工智慧的發展不僅為「機器人」可以成為犯罪對象的理論提供了發展的路徑,也為「機器人」可以成為犯罪主體提供了基礎。未來的智慧機器人可以主動實施詐騙行為,成為詐騙類犯罪的主體。智慧機器人是普通機器人的升級,與普通機器人相比,智慧機器人可能產生自主的意識和意志。人類創造機器人的技術達到了無與倫比的程度,依次經歷了機器人1.0時代(製造出對外界環境無感知的初級機器人的時代)、2.0時代(製造出對外界環境有感知的高級機器人的時代)、3.0時代(製造出對外界環境有認知、推理和決策能力的智慧機器人的時代)。科學技術的發展使得當下和將來的智慧機器人能夠像「人」一樣會思維,甚至能自我創造。智慧機器人與普通機器人相比具有以下不同點:(1)智能性。智能性是區分普通機器人與智慧機器人的本質特徵。這一特徵主要表現為認知、推理和決策的能力。智慧機器人往往能夠在需要感知、思考、計算乃至於創作的領域達到與人類相媲美甚至超越人類的程度。(2)主動性。普通機器人與智慧機器人的共同點在於對外界都有認知能力,差別在於智慧機器人具有推理和決策能力,即智慧機器人的活動具有機器人難以比擬的主動性。只要給智慧機器人設定好目標,其就會自我判斷、決策通過何種方式實現目標,並針對情況變化進行反應,而普通機器人只能根據人類的指令進行被動的反應式活動。此外,智慧機器人可以主動通過神經學習、深度學習與大數據技術來獲得進步。(3)創造性。普通機器人不具有創造性,其每一步操作都是按照程序的具體設定來進行的,人們可以完全預測到它們遇到不同的情況會作出什麼樣的具體「反應」。例如,當持卡人將帳戶和密碼告知ATM機時,ATM機會按照設計和編制的程序即時作出識別和判斷,與持卡人進行符合設定程序的金融交易。智慧機器人完全不同,人們可以為其設定目標,但無法預測其如何實現目標,即智慧機器人實現設定目標的過程完全超出設計者的控制範圍。
  在探究智慧機器人能否成為詐騙類犯罪主體時,應當考慮到智慧機器人與普通機器人存在的差異。正如上文所述,對於具有自主意識的智慧機器人,刑法上應當認可其刑事責任能力與主體地位。筆者將智慧機器人分為兩類:一類是僅能在程序設計與編制範圍之內進行活動的智慧機器人。這類機器人雖然具有認知、決策與推理能力,也能夠實施詐騙行為,但其受研發者或使用者的鉗制,不具有自主意識,不能獨立作出決定,其實施的詐騙行為所體現的是其背後研發者或使用者而非其本身的意志與目的,因此,智慧機器人此時只能作為背後的研發者或使用者實施詐騙行為的工具,而不能作為實施詐騙行為的主體。另一類是能夠在程序設計與編制範圍之外進行詐騙活動的智慧機器人,其可基於自主意識而獨立決定實施詐騙行為。後者能夠成為詐騙類犯罪的主體應無異議。
  綜上,筆者認為,從能否成為詐騙類犯罪的主體角度看,普通機器人不具有實施詐騙行為的能力,不能作為主體;不具有獨立意識的智慧機器人雖然能夠實施詐騙行為,但行為體現的是研發者或使用者的意志與目的,此時智慧機器人只是工具而非主體;在程序設計與編制範圍之外具有獨立意識的智慧機器人,能夠獨立實施詐騙行為,可以成為詐騙類犯罪的主體,承擔詐騙類犯罪的刑事責任。但是,從能否成為詐騙類犯罪的對象角度看,機器人以及兩類智慧機器人都至少具有識別功能,因而都可以成為詐騙類犯罪的對象。承認智慧機器人的犯罪主體地位,並非理論上的自我詮釋與陶醉,而是具有巨大的社會治理意義。對實施了犯罪行為的機器人科處刑罰,有利於降低社會治理成本。刑罰的目的是預防犯罪,包括特殊預防與一般預防。這兩種預防功能在機器人身上皆得以奏效。機器人具有感知刑罰痛苦的能力(刑罰的形式包括限制、剝奪自由,毀損等),並且能夠在犯罪的快感與刑罰的痛感之間進行理性權衡,以調整其之後的行為,換言之,自由意志的存在決定了機器人本身是可以接受深度學習與深度改造的。一般預防的功能則體現得更為充分,由於機器人具有意識和意志,會學習,能思考,因而此機器人完全可以從彼機器人犯罪受刑的經歷中受到威懾與教育,從而不斷在自己的「大腦」中塑造或加深符合人類社會規範的價值觀。假如我們無視機器人的自由意志,簡單而粗暴地將機器人當作不具有主體資格的物品來看待,一旦機器人實施了嚴重危害社會的行為便在物理上毀損之(因為自由意志是無法毀滅的),那麼經濟成本將是巨大的,一般預防功能也會蕩然無存。唯有尊重機器人的自由意志,將其作為行為主體與社會成員來看待,有罪必罰,並經由刑事訴訟程序進行法律上的審判,才能在機器人的「大腦」中建立價值體系,植入人類文明,使其自覺遵守並維護社會秩序,從而實現「人工人」向「社會人」的轉變,這是人工智慧技術發展到一定程度時的理性選擇與必由之路,有利於最大程度地降低社會治理成本。
  

  智慧機器人不僅能夠成為犯罪主體,亦可成為犯罪對象。智慧機器人的犯罪對象地位是不容否認的,一味地規制智慧機器人的犯罪行為,而不保護智慧機器人的權利不利於人工智慧的健康發展。智慧機器人的犯罪對象地位實際上折射出的是刑法保護理念。然而,無論採取何種刑法保護理念,這一疑問總是會浮現於心中:刑法保護智慧機器人權利的意義是什麼?
  (一)刑法保護智慧機器人權利的意義
  這一問題應當回歸到本原,刑法保護的是什麼?理論上有觀點認為,刑法的任務與目的是保護法益。該觀點從利益關聯性、法的關聯性、可侵害性、人的關聯性、憲法關聯性五個方面將法益的概念界定為:根據憲法的基本原則,由法所保護的、客觀上可能受到侵害或者威脅的人的生活利益。其中人的生活利益不僅包括個人的生命、身體、自由、名譽、財產等利益,而且包括建立在保護個人利益的基礎之上因而可以還原為個人利益的國家利益與社會利益。[31]因此,智慧機器人能否成為刑法所保護的對象,取決於其是否享有權利。從利益關聯性來看,智慧機器人有著歸屬於自身的利益。特別是在機器人倫理中要求自然人尊重智慧機器人,更是利益關聯性的重要表現。從可侵害性來看,智慧機器人的利益是可能受到他人侵害的。例如黑客故意損毀智慧機器人的程序等。從人的關聯性來看,前文已述,智慧機器人的法律主體地位應得到承認,其能夠成為法律上的「人」。從法的關聯性與憲法關聯性來看,智慧機器人能否受到刑法保護,或者說智慧機器人的犯罪對象地位最終仍需要憲法與法律明確其主體地位與相關利益。唯此,智慧機器人的犯罪對象地位才能夠得到確立。
  從刑法的機能來看,保護智慧機器人有著重要意義。刑法的機能在於人權保障與社會保護。從人權保障來看,智慧機器人雖尚未有人權,但無礙於刑法保護其類似於人權的利益。智慧機器人靈性的覺醒意味著智慧機器人能夠擁有認知、感情,智慧機器人亦有其自身之欲求。在智慧機器人成為被告人或被害人時,刑法的人權保障機能便可發揮作用,一方面使得作為被告人的智慧機器人免受不白之冤,另一方面保護作為被害人的智慧機器人的權益。從社會保護來看,保護智慧機器人對維護與控制社會秩序具有積極意義。隨著智慧機器人的普及,未來的社會成員結構之中必然有智慧機器人的一席之地,雖其不與人類完全平等,但保護這一類特殊的社會成員對社會秩序的維護亦具有重要作用。此外,不對智慧機器人進行保護意味著人類可以隨意處置智慧機器人,這不僅會使得智慧機器人產生負面情緒甚至於向人類發起反抗,更有可能令智慧機器人失控以至於阻礙人工智慧的發展,妨害社會秩序。從這個意義上說,承認機器人的權利具有鮮明的功利主義色彩,其本質是為了更好地實現人類的利益。
  (二)刑法保護智慧機器人權利的範圍
  智慧機器人受刑法保護的範圍取決於智慧機器人的權利範圍。刑法所保護的自然人享有的權利類型主要有人身權利、民主權利、財產權利等。行為人侵害某一權利類型即可能構成相應犯罪。例如,非法剝奪他人生命可以構成故意殺人罪。自然人享有生命權(人身權利),行為人故意殺害自然人的,因侵害了自然人的生命權而構成故意殺人罪。然而,雖然單位是法人,但不享有人身權利中的生命權,所以故意使單位破產、消滅的,不屬於刑法中故意殺人罪所規制的範疇。但是,侵害單位財產權利的,則可以構成相應的財產犯罪。由此可知,是否享有法律所賦予的權利是能否成為刑法上的犯罪對象的決定性條件。就權利概念而言,有應然權利與實然權利之分。依照「天賦人權說」,自然人的權利是與生俱來的,此為自然人之應然權利,未將應然權利轉化為實然權利的法律,非為良法。但智慧機器人不同於自然人,不適用「天賦人權說」,其權利只能來源於法律的規定。儘管目前我國法律尚未作出相應的規定,但不妨礙學者們基於智慧機器人的特性為其構建權利模型。譬如在智慧財產權法領域,已有學者提出智慧機器人應享有自己創作作品的著作權。[32]
  鑑於承認智慧機器人權利所秉持的功利主義立場,智慧機器人在人身權利保護方面,尚不能與自然人享有同等待遇。智慧機器人沒有生命體,也不應享有生命權。自然人的生命權表現在自然人的生命體上,傷害自然人的生命體致使其死亡,即是侵害其生命權。智慧機器人沒有生命體,只有機器軀體。機器軀體具有可修復性、可替換性等特點,與生命體不可修復、不可替換完全不同,因此,我們不能認為智慧機器人具有生命體。應當看到,認為具有獨立、自主意識的智慧機器人有生命體且享有生命權,顯然擴大了生命的本質與內涵。這一認識不僅與人類倫理觀念相衝突,對於保護智慧機器人也沒有較大的積極意義。事實上,即便不賦予智慧機器人生命權也同樣可以妥當地保護智慧機器人。例如,對於破壞智慧機器人的機器軀體或者程序的行為,可以按照刑法中相關的財產犯罪加以處理。
  智慧機器人不應享有人身自由權。《世界人權宣言》1條指出:「人人生而自由,在尊嚴和權利上一律平等。」天賦人權本質上是一定的社會文化結構所能提供的個人自由空間最大化。[33]需要指出的是,從刑法意義上分析,人身自由權屬於人身權利中的重要組成部分,而所有人身權利(包括人身自由權)的存在,均是以生命權的存在為前提的。一個人如果喪失了生命,那麼其所有的人身權利也就隨之消失。正如前述,智慧機器人與自然人的最大區別在於其不具有生命體,因而智慧機器人也當然不可能具有人身自由權。另外,從價值論角度分析,智慧機器人存在的目的與價值亦有獨特性。智慧機器人服務人類社會的存在目的決定了其服務價值是根本價值,自由價值遠遠低於前兩者。賦予智慧機器人人身自由權是與其存在目的衝突的,也不利於智慧機器人服務人類社會。所以,智慧機器人無法成為非法拘禁罪等侵害人身自由權犯罪的對象。值得注意的是,智慧機器人雖然不具有人身自由權,但其具有獨立、自主的意識,可在一定的自主空間內實施行為。例如,恐怖分子劫持智能飛行器並試圖改變航向時,飛行器應自主判斷並作出決定,拒絕恐怖分子的飛行操作,以自動駕駛的方式向正確的目的地飛行。
  智慧機器人未來可能享有財產權利並受到刑法保護。隨著科技的發展和法學研究的逐步深入,智慧機器人可能也將享有財產權利。例如,創作出作品的智慧機器人享有著作權等。智慧機器人享有上述權利是具有理論基礎與現實可能的。對於完全獨立、自主的智慧機器人而言,財產是其賴以獨立生存、保養自身的保障,應在立法上予以明確並進行保護。從刑法角度來看,侵害上述權利的行為可能構成相應犯罪。例如,盜竊、詐騙、搶奪智慧機器人財產的,構成相應財產犯罪,但由於智慧機器人沒有肉體也沒有生命權、人身自由權等人身權利,所以搶劫智慧機器人財產的行為不應構成搶劫罪,而仍屬於搶奪罪或者盜竊罪的範疇。

【注釋】
  [1][日]川島武宜:《現代化與法》,王志安、渠濤、申政武、李旺譯,中國政法大學出版社1994年版,第10頁。
  [2]王東浩:《機器人倫理問題研究》,南開大學博士學位論文,2014年,第46頁。
  [3]杜嚴勇:《現代軍用機器人的倫理困境》,載《倫理學研究》2014年第5期,第100頁。
  [4]阿西莫夫在1942年發表的短篇科幻故事《環舞》(Runaround)中首次明確闡述了有關機器人三法則的思想。機器人第一法則,即機器人不得傷害人類,或坐視人類受到傷害;機器人第二法則,即除非違背第一法則,機器人必須服從人類的命令;機器人第三法則,即在不違背第一及第二法則下,機器人必須保護自己。機器人三原則雖然來源於科幻小說作者的遐想,但筆者認為具有重要的指導意義。
  [5]《情感機器人:技術與倫理的雙重困境》,載《科技日報》2009年4月21日,第5版。
  [6]BBC News, Stephen Hawking—Will AI Kill or Save Humankind?,http://www.bbc.com/news/technology -37713629,accessed July 28,2017.
  [7]《全國首例機器人與人結婚?》,http://news.chinabyte.com/187/14066187.shtml,訪問時間:2017年10月1日。
  [8]《人工智慧,當機器人有了豐富的感情,與機器人談「感情」,人類是否「很受傷」?》,http://www.cankaoxiaoxi.com/science/20160405/1118962.shtml,訪問時間:2017年10月1日。
  [9]Jennifer Robertson, Human Rights vs. Robot Rights: Forecasts from Japan, 46(4) Critical Asian Studies 571,571-598(2014).
  [10]《人類會與機器人相愛嗎?易產生情感共鳴引擔憂》,http://tech.sina.com.cn/d/v/2015-11-09/doc - ifxknutf1617260.shtml,訪問時間:2017年10月1日。
  [11]Phil McNally & Sohai Inayatullay:《機器人的權利——二十一世紀的技術、文化和法律(上)》,邵水浩譯,載《世界科學》1989年第6期,第50頁。
  [12][德]卡爾·拉倫茨:《德國民法通論》(上冊),王曉曄等譯,法律出版社2003年版,第46頁。
  [13]參見胡玉鴻:《法律主體概念及其特性》,載《法學研究》2008年第3期,第6頁。
  [14]參見趙敦華:《西方哲學簡史》,北京大學出版社2000年版,第289頁。
  [15]胡玉鴻:《「法律人」建構論綱》,載《中國法學》2006年第5期,第39頁。
  [16][奧]凱爾森:《法與國家的一般理論》,沈宗靈譯,中國大百科全書出版社1996年版,第106頁。
  [17][德]拉德布魯赫:《法哲學》,王樸譯,法律出版社2005年版,第134頁。
  [18]沈寨:《從「倫理人」到「科學人」——以民法為例看近現代中國法律上的「人」的變遷》,載《太平洋學報》2011年第8期,第4頁。
  [19]馬駿駒、劉卉:《論法律人格內涵的變遷和人格權的發展》,載《法學評論》2002年第1期,第35頁。
  [20]Hilary Putnam, Robots: Machines or Artificially Created Life?61(21) The Journal of Philosophy 668,668-691(1964).
  [21]For and Against: Robot Rights, http://eandt.theiet.org/magazine/2011/06/debate.cfm.
  [22]參見吳漢東:《人工智慧時代的制度安排與法律規制》,載《法律科學》2017年第5期,第133頁。
  [23]甘紹平:《機器人怎麼可能擁有權利》,載《倫理學研究》2017年第3期,第130頁。
  [24]同注[11]引文,第48頁。
  [25]杜嚴勇:《論機器人權利》,載《哲學動態》2015年第8期,第86頁。
  [26]封錫盛:《機器人不是人,是機器,但須當人看》,載《科學與社會》2015年第2期,第7頁。
  [27]David Calverley, Android Science and Animal Rights, Does an Analogy Exist?18(4) Connection Science 403-417(2006).
  [28]彬彬:《2040年機器人犯罪率將超過人類成大多數犯罪主體》,載《科學與現代化》2017年第1期,第135頁;《人工智慧AI發展到一定程度後會犯罪嗎?》,http://www.techweb.com.cn/column/2016-09-13/2392298.shtml,訪問時間:2017年8月26日。
  [29]此處「機器人」原本僅指一般機器人,但隨著人工智慧的發展,智慧機器人也應被納入其中。前文所述「機器人」是屬概念,是指與自然人對應的機器人。
  [30]劉憲權:《金融犯罪刑法學原理》,上海人民出版社2017年版,第509頁。
  [31]參見張明楷:《刑法學》,法律出版社2016年版,第63頁。
  [32]王遷:《論人工智慧生成的內容在著作權法中的定性》,載《法律科學》2017年第5期,第154頁。
  [33]參見陳興良:《刑法的價值構造》,中國人民大學出版社2006年版,第101頁。

相關焦點

  • 人工智慧導致的倫理衝突與倫理規制
    上海200444原發信息:《教學與研究》第20188期內容提要:人工智慧是一種遠未成熟的革命性、顛覆性技術,可能導致的倫理道德後果尚難準確預料。人工智慧的應用範圍極其廣闊,人形智慧機器人正在解構傳統的人倫關係,數據搜集和分析、智能機器取代人工作正在引發各種倫理衝突,智能駕駛、虛擬實境正在帶來各種倫理難題。我們必須立足時代和社會的重大變遷,對人工智慧進行理智的價值評估,對人工智慧的研發和應用進行有效的倫理規制。
  • 【學術】人工智慧的非犯罪主體資格探究
    其二,人工智慧能夠接受刑罰處罰,因現行刑罰種類在強智慧機器人身上完全無法奏效而否定其刑事責任主體地位的邏輯陷入了由果溯因的邏輯怪圈。(二)否定論否定論否認人工智慧的犯罪主體資格,傾向於藉助傳統刑法理論對其進行規制。否定論的立場是將機器人所惹起的損害,讓機器人自身承擔責任的可能性,先驗地予以完全排除。
  • 涉人工智慧犯罪的類型及刑法應對策略
    由此可見,「加強人工智慧發展的潛在風險研判和防範,加強人工智慧相關法律、倫理、社會問題研究,建立健全保障人工智慧健康發展的法律法規、制度體系、倫理道德」,具有重要且深遠的價值和意義。根據人工智慧技術的發展程度,我們可以把人工智慧時代劃分為普通機器人時代、弱人工智慧時代和強人工智慧時代。
  • 人工智慧時代大數據收集行為的刑法規制
    具體而言,大數據收集中的不當行為可能侵害公司、企業管理秩序,金融管理秩序,公民的人身、民主權利,以及社會管理秩序等法益,刑法如何對非法收集大數據的行為準確定罪,是理論和實踐中亟須明確的問題。一、刑法規制大數據收集行為的困境大數據非法收集行為的刑事違法性判斷包括行為對象屬性認定和違法行為評價兩方面,而刑法理論對二者的判斷存在不同觀點。
  • 人工智慧時代大數據收集行為的刑法規制 - 人民法院報
    具體而言,大數據收集中的不當行為可能侵害公司、企業管理秩序,金融管理秩序,公民的人身、民主權利,以及社會管理秩序等法益,刑法如何對非法收集大數據的行為準確定罪,是理論和實踐中亟須明確的問題。    一、刑法規制大數據收集行為的困境    大數據非法收集行為的刑事違法性判斷包括行為對象屬性認定和違法行為評價兩方面,而刑法理論對二者的判斷存在不同觀點。
  • 人工智慧時代的刑事立法規劃
    、人工智慧產品責任分配、涉人工智慧犯罪的規制等對此學界目前也已經湧現出了一系列以人工智慧為研究對象的法學研究成果 然而這些研究成果基本圍繞著人工智慧中的智慧機器人的法律人格、民事歸責、刑事歸責等方面展開較少從立法層面進行系統性研究① 筆者認為人工智慧新時代已然到來現行刑法顯然難以妥善解決人工智慧發展過程中所遭遇或可能遭遇的新問題② 例如自動駕駛在一定程度上影響了交通肇事罪的適用無論是危害結果可否歸因於駕駛員還是該罪的主體範圍等均存在討論空間又如針對人工智慧的侵害活動尚未有相應的罪名可以進行規制
  • 刑法的倫理道德基
    在這類案件的討論中,檢驗某一觀點是否受到倫理道德秩序壓力最簡單方式,就是排除掉案件中的身份和背景因素,如果這樣檢測,是否還會認為這類案件都是正當防衛?由於道德恐慌而對刑法立法擴張的呼籲,如「見死不救入刑」「吸毒犯罪化」,也不斷出現在每年人大代表和政協委員的提案當中。① 此外,諸如克隆技術、人工智慧、基因編輯等新技術引發人們的道德焦慮,也成為有關犯罪化新的討論焦點。
  • 人工智慧或衝擊法律規範道德倫理 你會愛上機器人嗎
    可當人工智慧陷入人類「倫理困境」的極端情景時,其每一步都是通過算法設定好了的。 「無人車依靠的是人工智慧大腦,它目前不可能做超出人類算法中所設定範圍的行為決策。」浙江大學計算機學院教授吳飛說,將全國每年的交通事故數據「餵」給計算機,人工智慧可以學習海量數據裡隱含的各種行為模式。簡單來說,就是無人車會從以往案例資料庫中選取一個與當前情景較相似案例,然後根據所選取案例來實施本次決策。
  • 人工智慧時代的算法權力:邏輯、風險及規制
    一、問題的提出  人工智慧時代的到來使技術產生了顛覆式的變革與發展,大數據、機器學習、深度學習和神經網絡等新型技術在社會方方面面的應用,構成了智能時代獨特的表徵。這些技術以人工智慧為主線,串起了一張完整的技術網絡。
  • 專家:尋找刑法與倫理道德「靈魂溝通」的聯繫
    發人深省的刑法與倫理道德的「靈魂」求真  論文中並非抽象地進行倫理道德的正當性論證,而是著力尋找刑法與倫理道德的靈魂溝通所在,分別從二者的一般關係以及刑法話語體系中與倫理道德頗為相似的刑法教義學中作為「秩序維持」的兩個方面展開。
  • 「社會變遷與刑法科學新時代」學術研討會綜述
    此次研究會由中國社會科學院法學研究所主辦,刑法研究室承辦,以「社會變遷與刑法科學新時代——紀念改革開放40年暨社科院法學所成立60年」為主題。來自全國各地數十所高校、科研院所和實務部門近百名專家學者出席此次盛會。
  • 人工智慧與倫理道德
    雖然車上有安全駕駛員,但當時汽車完全由自動駕駛系統(人工智慧)控制。和其他涉及人與AI技術交互的事故一樣,這起事故提出了一系列的道德和原始法律問題:開發該系統的程式設計師在防止該系統奪人性命方面負有怎樣的道德責任?誰應該為赫茨伯格的死負責?是坐在駕駛位上的那個人嗎?是測試那輛汽車的公司嗎?是該AI系統的設計者嗎?還是車載感應設備的製造商?
  • 人工智慧時代的算法裁判及其規制
    智能時代和算法社會已經到來, 算法裁判的運用也是科技與法律結合的必然要求和體現。我們應未雨綢繆, 在將人工智慧和算法裁判運用於司法實踐的同時, 正視其可能帶來的弊端和缺陷, 通過技術革新不斷彌補和完善其漏洞, 通過立法對其運用進行規制, 使其更好地為人類社會服務, 最終實現智慧司法和公正司法的目的。
  • 人工智慧列國志|歐盟:技術發展激勵與倫理道德監管雙管齊下
    來源:澎湃新聞原標題:人工智慧列國志|歐盟:技術發展激勵與倫理道德監管雙管齊下編者按:2020世界人工智慧大會將於7月9日至7月11日舉行。歐盟在持續激勵人工智慧技術發展、人才培養的同時,還注重對人工智慧領域相關倫理道德問題的探討。歐盟委員會於2020年2月19日發布的《人工智慧白皮書》指出,歐洲的人工智慧戰略旨在提高AI領域的創新能力,同時促進道德、可信賴AI技術在歐洲經濟領域的應用。
  • 「人工智慧的治理與倫理」學術研討會在滬舉行
    人民網上海12月9日電(馬作鵬)近日,一場關於人工智慧應用在社會科學領域的探討在上海開展,與會院士、科學家、社會學者共同探討了人工智慧、科技進步與社會倫理之間的關係,並提出具有前瞻性的學術觀點。據了解,由華東政法大學人工智慧與大數據指數研究院主辦的第二屆智能社會科學論壇暨「人工智慧的治理與倫理」學術研討會,邀請了包括北京大學、清華大學、中國科學院、復旦大學、浙江大學、武漢大學、中國社會科學院、上海交通大學、上海社會科學院和華東政法大學在內的十多位學者參加。會議採取了線上和線下相結合的方式,眾多觀眾通過線上直播觀看了本次會議。
  • 婁雪洋:論人工智慧致人損害的法律規制
    人工智慧本身的自主性、難以預見性等特徵也意味著我們必須在現有法律體系的基礎上結合人工智慧自身的特性對其致損行為的法律規制進行重新審視與完善。目前,我國學術界關於人工智慧致人損害的法律規制主要有兩大觀點:一是循用現行侵權法體系尤其是產品責任及替代責任來規制,不宜賦予人工智慧以獨立人格;二是借鑑法人制度通過法律擬制賦予人工智慧以法律人格使其自身承擔相應責任。
  • 貴大教授李傳兵:防控倫理道德風險 保障人工智慧健康發展
    習近平總書記強調:「要整合多學科力量,加強人工智慧相關法律、倫理、社會問題研究,建立健全保障人工智慧健康發展的法律法規、制度體系、倫理道德。」保障人工智慧健康發展,需要採取合理有效的舉措,防範人工智慧技術可能帶來的倫理道德風險,讓這一技術更好服務於經濟社會發展。人工智慧發展存在倫理道德風險。
  • 人民日報人民時評:人工智慧,以法律和倫理為界
    通過對人工智慧相關法律、倫理和社會問題的深入探討,為智能社會劃出法律和倫理道德的邊界,讓人工智慧服務人類社會      得益於中國在網際網路、大數據、雲計算等領域的卓著進步,人工智慧在國內發展迅猛。
  • 人工智慧讓人類尷尬:倫理道德法律框架設計滯後
    倫理道德法律框架設計滯後  人工智慧火了,人類有些尷尬了  索菲亞不是人,她只是個很聰明的機器人;索菲亞又是「人」,不久前,她被沙特授予公民身份,加入人類籍。  在近日召開的「人工智慧的技術、倫理與法律的關鍵科學問題」的香山科學會議上,中科院科技戰略諮詢研究院研究員李真真舉索菲亞的例子,是想提出一個問題:在技術高歌猛進的同時,人工智慧不斷模糊著物理世界和個人的界限,不斷刷新人的認知和社會關係,延伸出複雜的倫理、法律和安全問題,但相應的規範和制度設計還存在盲區,這是一個極大的挑戰。
  • ...界2018年學術年會分論壇「新時代、新徵程、新使命:倫理道德的...
    在此背景下,由福建省社會科學聯合會主辦,福建省倫理學會、華僑大學哲學與社會發展學院共同承辦的福建省社會科學界2018年學術年會分論壇暨2018年福建省倫理學年會於11月23日-25日在廈門隆重舉行。  本次論壇的召開,恰逢我國改革開放40周年,是黨的十九大後的開局之年,也是中國特色社會主義進入新時代,踏上新徵程的關鍵時期。