婁雪洋:論人工智慧致人損害的法律規制

2020-12-21 澎湃新聞

原創 婁雪洋 上海市法學會 收錄於話題#法學112#核心期刊112#原創首發112#上海法學研究77

婁雪洋 中國政法大學法學院碩士研究生。

內容摘要

伴隨著AI技術的發展和應用,人工智慧致人損害的糾紛也不斷湧現,對我國的現行法體系提出了考驗。以自動駕駛汽車為例,根據其致損原因的不同,可將自動駕駛汽車致人損害分為人為操控下致人損害、 因其產品缺陷致人損害以及因其自主行為致人損害三種情形。結合目前我國人工智慧的發展狀況,出於對不違背現行法律體系整體上的安定性又不無視人工智慧致損問題的特殊性的雙重考量, 對現行侵權法體系進行適當的調整並輔以必要的配套機制便可解決此問題,而無須賦予其法律人格。

關鍵詞:人工智慧 致人損害 歸責方式 配套機制

隨著「人工智慧+」時代的迫近,人工智慧的迅猛發展深刻地影響著人們的生產和生活方式,並且已經滲透到教育、醫療、養老、環境保護、交通、公共服務等各個領域,對個人、國家乃至整個人類社會影響深遠。在個人層面,關於人工智慧致人損害的糾紛不斷湧現。在國家層面,人工智慧已然成為很多國家發展戰略的重要內容,也是現在乃至未來各個國家經濟和科技競爭的重要領域。任何新興產業的成長和繁育無不需要法律的配合與支撐,我國想要搶佔人工智慧全球制高點,就必然要健全相關的配套法律機制,對人工智慧致人損害的法律規制就屬於其中的重要內容。人工智慧本身的自主性、難以預見性等特徵也意味著我們必須在現有法律體系的基礎上結合人工智慧自身的特性對其致損行為的法律規制進行重新審視與完善。

目前,我國學術界關於人工智慧致人損害的法律規制主要有兩大觀點:一是循用現行侵權法體系尤其是產品責任及替代責任來規制,不宜賦予人工智慧以獨立人格;二是借鑑法人制度通過法律擬制賦予人工智慧以法律人格使其自身承擔相應責任。

人工智慧作為一個新興的課題,目前學界對其致損問題的法學研究尚不甚多,該問題尚存極大的探討空間。在當前的研究文獻中,多數研究人員都是從整體上探究人工智慧致損行為的法律規制,或者以脫離人為控制的程度為劃分依據探究智能程度不同的人工智慧致人損害案件的歸責範式。這就忽略了以機器人的智能程度進行分類的不周延性以及相鄰類別的界限模糊性。而本文將直接著眼於人工智慧致損原因的不同,探究差別化的歸責設計。結合目前我國人工智慧的發展狀況,綜合考量現行法律體系整體上的安定性及人工智慧致損問題的特殊性,探究切實可行的路徑,以期實現既不阻礙創新又能最大程度上防控風險的良好效果。

一、 何為人工智慧

早在1956年的達特茅斯學會上,「人工智慧」這一概念就被提出,並被確定為一個嶄新的研究領域。經歷了六十多年的發展,特別是隨著網際網路與計算機技術的發展,其進入全新的快速發展時代,對人類生產生活的影響日益凸顯,也為愈來愈多的大眾所知悉。然而直到今天,人人皆談「人工智慧」,卻尚無人能夠對其提出一個較為準確的、能被廣泛接受的定義。

定義人工智慧的主要困難在於如何定義「智能」。而人類是眾所周知的擁有智能的天然且唯一的主體,那麼界定人工智慧勢必要以人類的特徵為參考,著名的圖靈測試實質上也以此為原理。因而目前對人工智慧的界定主要分為四類:像人一樣思考(thinking humanly);像人一樣行為(acting hu-manly);理性思考(thinking rationally);理性行為(acting rationally)。其中前兩類從與人類表現的逼真度的維度出發,後兩類從合理性的、理想的表現量的維度出發。但不論是「像人一樣」的逼真度描述還是「理性」的表現量描述,似乎都不能為人工智慧提供一個法律上的清晰界定,因為人本身的特質就是複雜多樣的,而「理性」也本就為一個較為抽象和泛泛的概念。

本文也難以對人工智慧給出一個較好的定義。所以為了避開概念的模糊性,本文將以自動駕駛汽車為載體,僅討論由算法驅動的、並配合傳感器、控制器、執行器等裝置,通過信息共享、環境感知、協同控制、智能決策等實現一定目的或功能的有形機器人比如自動駕駛汽車、醫療機器人、製造作業機器人等致人損害的歸責範式。另外,為了避免以機器人的智能程度進行分類歸責的不周延性以及相鄰類別的界限模糊性,本文將直接以致損原因為依據,將人工智慧致人損害的情形分為人為操縱致損、產品缺陷致損、「自主行為」致損三種情形,並在此三種情形之下討論各自的歸責範式。

二、人工智慧致人損害歸責方式的分類化討論——以自動駕駛汽車為例

(一)人為操控下自動駕駛汽車致損的歸責方式

「智能網聯汽車(也即自動駕駛汽車)自動駕駛包括有條件自動駕駛、高度自動駕駛和完全自動駕駛。有條件自動駕駛是指系統完成所有駕駛操作,根據系統請求,駕駛人需要提供適當的幹預;高度自動駕駛是指系統完成所有駕駛操作,特定環境下系統會向駕駛人提出響應請求,駕駛人可以對系統請求不進行響應;完全自動駕駛是指系統可以完成駕駛人能夠完成的所有道路環境下的操作,不需要駕駛人介入。」

在有條件自動駕駛和高度自動駕駛的情形下,駕駛員均有參與駕駛任務的可能,只不過在有條件自動駕駛的情形下駕駛員的參與度和參與頻率更高,所以,此二種自動駕駛汽車致人損害均可能是緣於駕駛員的過錯。當事故是由駕駛員積極或消極的不當操作導致時,自動駕駛汽車作為一種交通工具和普通汽車一樣適用道路交通事故責任。道路交通事故責任的構成要件包括違法行為、損害事實、因果關係以及過錯。而與普通機動車交通事故相比,有條件自動駕駛汽車和高度自動駕駛汽車的交通事故中,損害事實和因果關係的舉證與前者並無二致,但駕駛員的過錯及違法行為卻較難舉證。因為普通汽車運行時駕駛員全程操作,除了汽車本身存在缺陷的特殊情形外汽車完全按照駕駛人的意志運行, 因而可以依汽車的運行狀態反推駕駛員的操作行為從而判斷其操作違法與否;而有條件自動駕駛汽車和高度自動駕駛汽車運行時駕駛員僅間或操作,大部分行程由自動駕駛汽車自行完成,故而自動駕駛汽車的運行狀態並不能反映駕駛員的操作行為,此時由受害一方對駕駛員的違法操作行為進行舉證就極為困難同時也有失公允。此問題或許可以考慮以舉證責任分擔及自動駕駛汽車的內在技術裝置要求比如安裝內部監控和駕駛員操作記錄儀來解決。具體而言,發生事故時,受害一方僅需對自動駕駛汽車存在違法行駛狀況進行舉證而不必具體到駕駛員的不當操作,而駕駛員則需證明自己參與駕駛任務的過程中並無過失且已充分盡到注意義務方可使自己免於為自動駕駛汽車自身的產品缺陷或失控事故擔責。

(二)自動駕駛汽車的產品缺陷致人損害的歸責方式

自動駕駛車輛的主要功能和市場價值就在於自治行駛,因而其應該在自動駕駛模式下不論對乘客還是對其行駛道路上的其他主體均要保障基本的行駛安全,尤其是對於不存在輔助操控駕駛員的完全自動駕駛汽車而言,原本由傳統車輛駕駛員承擔的基本注意義務就會轉化為產品責任。「產品責任是指產品生產者、銷售者因生產、銷售缺陷產品致使他人遭受人身傷害、財產損失或者有致使他人遭受人身傷害、財產損失之虞而應承擔的賠償損失、消除危險、停止侵害等責任的特殊侵權責任。」而產品缺陷,是指產品存在危及人身和產品之外其他財產安全的不合理危險,包括製造缺陷、設計缺陷、警示缺陷、跟蹤觀察缺陷等。因而在設計、生產、銷售、運行的不同階段,自動駕駛汽車的設計者、生產者、銷售者都要克盡謹慎的注意義務,保證各自的環節免於缺陷。

1.設計者責任

設計者需要保證其設計的自動駕駛汽車不存在不合理危險,即能夠在可預測的所有情境之下都能夠保持安全行駛, 比如必須具備包括但不限於:「限速信息識別及響應、 跟車行駛(包括停車和起步)、車輛碰撞自動緊急制動、前方車輛變更車道檢測及響應、障礙檢測及響應、並道行駛、超車、靠路邊停車、交通信號燈識別及響應、行人和非機動車識別及避讓、交叉路口通行、環形路口通行、道路弱勢群體碰撞自動緊急制動、車道保持控制、探測並避讓對向來車、停車場通行、網聯通信、碰撞前的數據捕獲等功能。」然而問題的關鍵主要在於:相較於製造缺陷,設計缺陷在實踐中往往很難認定。因為製造缺陷通常可依是否符合設計方案來判定,而設計缺陷則是指設計方案本身欠缺某些科學合理的考慮,其沒有可供參照的評判標準。而我國《產品質量法》僅對產品缺陷進行了籠統的界定,即以存在不合理的危險以及不符合國家標準、行業標準來認定產品缺陷,這對設計缺陷的認定幾乎不具可操作性,因為國家標準、行業標準往往是針對製造環節的,且通常以設計方案為參考。此外,與製造缺陷主要關注產品自身性能相比,設計缺陷需要結合多種因素綜合判斷,比如自動駕駛技術的社會效益和成本,替代設計的技術可得性及其成本等。

需要注意的是,在歸責原則方面,設計缺陷與製造缺陷不同,不宜適用無過錯責任。首先,設計者的程序設計往往以其設計當時的科技水平和應用環境為基礎,而科技水平與應用環境總是不斷地變化發展的,從上帝視角要求存在於有限時間和空間的設計者,對其依據既有最新科技水平得出的設計方案承擔其所不能預知的風險和責任,顯然是不合理和不公平的;其次,如若對設計者苛以嚴格責任,就意味著即便其於設計當時已經窮盡了最新的技術水平和專業知識但仍需要為其注意義務和能力範圍之外的風險負責,從而促使其以犧牲產品效用為代價來避免任何可能的風險即便這種風險相對於效用而言只是細微的, 這種做法的宏觀效應就是可能阻礙技術創新和產業進步,從而違背了立法的初衷。筆者認為,對設計者的設計責任應當採用過失責任原則,而對其過失的判斷可採用「風險——效用」標準,即設計者「修改設計以消除危險」的邊際收益大於邊際成本,那麼修改設計以消除危險就是一個謹慎合理的設計者所應當做的,若其未採取這種理應修改的設計方法就是有過錯的,應當對其設計缺陷承擔責任。否則,其設計就應該被認為沒有缺陷,設計者無需擔責。當然,關於設計缺陷的認定並非法律所能單獨解決的問題,還需相關專業人群從技術層面展開細緻的商討和確定。

此外,自動駕駛汽車作為具有一定自主決策和行為能力的智慧機器人,其駕駛行為基於算法而產生。算法的內部設計和形成邏輯決定了自動駕駛汽車決策過程及最終的外部行為,然而算法在設計之初就融入了設計者的技術考量、行為模式和價值倫理選擇,且算法自動化決策存在著信息繭房、引發隱私洩露、算法歧視等風險,這就意味著對算法的規制便成為必要。那麼如何對自動駕駛汽車的自動化決策系統———算法進行規制呢?在現有的學術研究成果中,公開原始碼增強算法透明和增設算法解釋權成為眾多國內外政策制定者和學者所提倡的主要監管思路。然而,公開原始碼似乎並不能有效解決算法規制難題,即便算法透明可知,也並不意味著算法問題能夠被發現,因為在算法生成後的運行過程中,就算是設計者也難以保證能夠預測到算法在與其具體運行情景進行交互的過程中會產生何種結果。此外, 公開原始碼還與個人隱私、商業秘密、專利保護等問題存在潛在衝突。而增設算法解釋權方案也面臨著諸多問題,比如算法模型所採用的高度複雜和精密的運算方式難以用一般的語言表達方式闡明,也就是說欠缺可解釋性。退一步講,即便算法可以準確解釋,但受害者作為非專業人士也很難理解,而若委託專業人士代為解讀則增加了受害人的成本負擔。故此,公開原始碼增強算法透明和增設算法解釋權兩種方案均難以切實有效地規制算法風險。筆者認為,可以考慮在設計算法時通過法律強制或者行業標準等方式將特定的政策和價值標準嵌入設計者的編程,以代碼規制代碼,例如擬定人工智慧設計的倫理準則、算法治理原則等等,比如阿西莫夫就提出了著名的「機器人三大定律」。該等準則、原則的確定需要計算機科學家、倫理學家、法學家等各界學者的協同努力,鑑於自身研究能力及專業領域十分有限,筆者對此不加妄議。

2.生產者與銷售者責任

與普通汽車無異,當由於自動駕駛汽車的製造缺陷、設計缺陷、警示說明缺陷等導致他人人身或財產損害時,生產者和銷售者應承擔產品責任。其中製造缺陷是指製造終端產品的原材料或零部件存在問題或者裝配過程中存在操作失誤。當然,在實踐中原材料或零部件的缺陷可能並非由生產者或銷售者所致,也可能是運輸者、倉儲者、零部件提供者、原材料提供者在相應環節存在問題,但由於產品責任系嚴格責任追責時不問過錯,所以生產者和銷售者仍要承擔責任,只不過其現行賠付後可以向其他最終責任人追償。且生產者與銷售者之間為不真正連帶責任,受害者可以就近選擇任一方承擔全部賠償責任而對方不能拒絕。

需要注意的是,智能產品的特殊性往往意味著其原材料比較特殊、零部件比較精細且各部件之間的相互影響較大,因而為了便於追責,其材料和零部件須做好標識且每個環節做好檢驗檢測記錄。此外,智能產品自治運行的特質也對生產者、銷售者的警示說明義務提出了更高要求。以自動駕駛汽車為例,生產者必須標明其正確的操作方式以及緊急情況的應對措施,此外,由於自動駕駛汽車不可能一次性取代市場上的普通汽車,即二者可能在很長一段時間內會共用公共運輸,為了普通汽車駕駛及乘車人員的安全,自動駕駛汽車必須以明確的標識標明其性質以提示其他普通車輛。

通過上述分析可知,智慧機器人因產品缺陷致人損害的情形基本可以由我國現行《侵權責任法》《產品質量法》及《消費者權益保護法》來調整,但普通產品的主要區別在於關於設計者責任我國相關法律基本空白尤其是在設計缺陷的認定方面缺乏可操作的具體規則和標準。且當智慧機器人因產品缺陷致人損害時其具體缺陷所在環節很難辨認,這就意味著:與普通產品相比,智慧機器人致人損害時設計者、生產者、銷售者、操作者之間的責任劃分比較困難,而這本質上需要依賴技術手段,而非法律能夠單獨解決的。但隨著責任主體的擴大,法律也需要作出適時的調整。

(三)自動駕駛汽車的「自主行為」致損的歸責方式

機器學習算法是人工智慧的重要技術基礎之一。機器學習就是讓機器能夠像人一樣具備從周圍的事物中學習並利用學到的知識進行推理和聯想的能力。通過機器學習,智慧機器人可以通過自組織、自適應、自學習從周圍的環境中攫取數據、捕捉信息、總結規律從而生成新的規則並依照該規則進行自我調整和適應,進而使其行為和決策偏離預期,而即便是最專業的設計者對智慧機器人投入使用後所接觸的數據也是無法統計的,更難以預知和控制其依據自主學習生成的新規則所能作出的決策和行為。換言之,智慧機器人完全可能存在其自主「意識」作用下的致損風險,而這種風險由於是設計者、生產者、銷售者乃至操作者所無法預料和防控的因而不能列入其注意義務的範疇,如果強行讓其擔責,無疑會阻礙技術創新和產業發展。那麼此種致損類型將如何歸責呢?

首先,筆者並不贊成參照僱主責任、動物致損責任或者監護人責任等用替代責任解決此問題。第一,通過上文分析,設計者、生產者、銷售者尚因人工智慧「自主行為」致人損害的不可預料和難以控制性而不能成為歸責主體,那麼讓無論在技術知識還是擔責能力上相對於設計者、生產者、銷售者等主體均往往處於弱勢地位的所有者對智慧機器人的失控行為承擔替代責任顯然不合情理。第二,人工智慧自主侵權與僱主責任、動物致損責任和監護人責任在構成上存在本質區別:僱主責任中的直接侵權人僱員是具有人格的人而人工智慧沒有從而也無法區分職務行為或者非職務行為;監護人責任亦如此,因為被監護人也是具有生命和人格的人;也就是說僱主責任與監護責任均以相關主體間的人身關係為潛在的前提,而人工智慧難以滿足此要求除非賦予其法律人格。至於動物致損,自然人對動物的管控能力和對人工智慧的管控能力是難以類比的,將二者適用同種歸責方式難免牽強。

那麼,賦予人工智慧以法律人格是一條可行的路徑嗎?筆者將從當前我國人工智慧的發展階段、智慧機器人的應用範圍、我國現行法體系等方面進行分析。

就目前人工智慧的發展階段而言,「我們正處於弱人工智慧向人工智慧的過渡階段。」此階段的人工智慧仍作為人類生產和生活的助手而存在, 通常僅能代替人類完成某一方面的單一技能,且多在人的操作下進行,並不會高頻率甚至大範圍地出現完全脫離人控制的「自主行為」。其次,從我國人工智慧的實際應用來看,人工智慧的研究多處於基礎層和連結層,應用層雖在圖像識別、自動駕駛、醫療影像智能金融等方面有所突破,但基本還處於較低程度的人機協作階段且並未大範圍普及。以自動駕駛汽車為例,我國低端車型銷售比例較大,輔助駕駛技術的滲透率僅為3%左右,且所謂的自動駕駛尚無法實現完全的無人駕駛。因而人工智慧失控致人損害的概率較小。從現行法律體系來看,賦予人工智慧以法律人格,將會顛覆我國民法人物二分法的體例,從而對整個民法規範產生牽一髮而動全身的後果。最重要的是,值此人工智慧技術發展尚不成熟、頂層設計基本缺位,技術鑑定、監管辦法、保險制度等配套機制仍然空白的情況下,貿然賦予人工智慧以法律人格無疑會淪為空中樓閣,虛有其表卻不能發揮實際效用。雖然歐盟立法建議提出智慧機器人應當取得獨立人格,但也未說明具體的承擔責任方式,且歐盟人工智慧的發展和應用程度有異於我國。需要說明的是,筆者並非否定和排除了未來人工智慧發展到一定程度通過法律擬制給予人工智慧以獨立人格的可能性,因為參照公司法人人格獨立制度來看,獨立人格並不以具有和自然人一樣的天然生命為前提。至於意志能力,人工智慧之所以稱為「智能」就是因為其具有一定的思考和感知能力,而這種能力會隨著技術的發展愈加強大。至於獨立財產,亦可以像公司制度一樣通過制度設計來實現。總而言之,不能賦予人工智慧以獨立人格的主要障礙不在於法律本身而在於其自身的發展及應用程度和社會的現實需求。至少在包括目前在內的很長一段時間內,這是沒有現實意義的。

人工智慧的「自主行為」致人損害的賠償問題可以通過強制責任保險制度來解決,但其保險當事人、責任限額等內部具體機制應當有異於機動車交通事故責任強制保險。首先,人工智慧強制保險應由生產者而非所有者作為保險費支付義務人, 其一是因為生產者的負擔能力和風險防禦能力比較強,其二是因為生產者可以以價格調整的方式將保險成本進行分化,此外還可以以此作為一種倒逼機制促使生產者及時履行跟蹤觀察義務並及時進行系統的調整與升級。就具體的運行模式而言,當生產商想要從事人工智慧產品的生產經營活動時,購買責任保險是其獲得生產許可的前置條件。至於保險費率,不同的人工智慧產品可能導致的風險不同,比如醫療機器人的產品責任事故風險通常高於普通工業製造機器人,其保險費率就相對較高。其次,保險費率還受被保險人的信譽記錄等因素的影響,至於最終需要市場機制下保險人與被保險人的博弈來確定。但對保險責任限額必須進行一定規制,因為這直接關係到對受害人賠付標準,具體而言以能夠滿足大部分受害人的基本賠償請求為前提同時不影響保險公司的正常經營,這需要運用統計學和精算學進行科學確定。此外,應該嚴格限定免責條款,以防保險人以降低賠付風險為目的肆意添加免責條款從而限制被保險人的保險金賠付請求權。要言之,通過強制責任保險制度能夠將人工智慧致人損害的風險負擔進行社會分化,從而達到人工智慧自主行為致人損害時既不至於使受害人無從索賠,又能夠很好地平衡設計者、生產者、銷售者及使用者等主體間的義務和責任的良好效果。

總之,人工智慧致人損害的法律責任,並不能單一地由一般過錯侵權責任、產品責任或者替代來解決,必須根據不同的致損原因即操作人過失還是產品缺陷抑或是人工智慧的自主行為而適用不同的歸責方式。

三、責任落實之配套機制

通過上文分析可知,除了設計缺陷致損及自主行為致損兩種特殊情形外,我國現行侵權法體系基本可以調整人工智慧致人損害的大部分情形。換言之,對於人工智慧致人損害的規制,關鍵問題不在於法律規範的缺位,而在於事故原因鑑定、產品缺陷標準、審批及監管等配套機制不完善。對此,筆者認為可以考慮以下思路。

成立人工智慧發展委員會,且委員會應由法律人、人工智慧相關技術研究人員、人工智慧產品研發製造企業等主體多元構成。人工智慧的技術複雜性和專業性要求立法、司法乃至執法人員具有更高的綜合素質。不論是設計環節中設計缺陷的認定,還是生產環節製造缺陷的認定,抑或是具體事故原因的認定均非普通的法律職業者所能完成的。換言之,對於人工智慧致人損害的法律責任的設計和落實,需要法律與算法的融合,也即法律人與人工智慧技術人員的合作。而多元構成的人工智慧發展委員會無疑將為此提供一個平臺。另外,其也會對相關標準的制定創造條件。其在他國也不無先例,美國白宮科技政策辦公室副主任麥可·克拉希歐斯(Michael Kratsios)於2018年5月10日即宣布將組建人工智慧特別委員會。

建立健全人工智慧產品授權審批及登記備案制度。人工智慧產品具有極強的精密性和專業性,「在人工智慧的代碼編寫和算法建模中, 更容易看到一些微小的疏漏以讓人無法預料的序列連續發生,就有可能變成更大的、更具有破壞性的大事故」。故而對人工智慧的程序編碼及構造進行審批和登記不僅能夠發揮事前預防把關的功能,還可以為事後追責奠定基礎。當然,此種審批和登記與普通的行政許可與登記不同,需由專業技術人員來完成。

成立專門的監管及事故責任認定機構。人工智慧是一個科技黑箱,人工智慧的研發具有秘密性、分散性、不連續性及不透明性。非專業技術人士根本無法對其進行解釋,更無從對人工智慧致人損害時的事故原因進行鑑別認定,普通的被侵權人更無從舉證。這就需要由對人工智慧的倫理價值、算法邏輯等領域有著清晰理解的專業團隊來完成這些工作。

相應的配套機制是不可能列舉窮盡的,筆者在此只是做一個啟發式的思考,而具體的體系構建仍需隨著人工智慧的發展情況進行調整和補充,而此條道路可謂任重而道遠。結語針對人工智慧致人損害這一問題,現行侵權法體系不可否認地為該類糾紛中部分情形提供了解決途徑,但也主要集中在人工智慧的產品缺陷致損這一情形中,但其中關於設計者的責任仍需要進一步明確。此外,隨著AI技術的不斷進步與深入應用,人工智慧脫離控制的自主侵權行為將不斷湧現,此時我們便不得不意識到現行侵權法體系在這一問題上的缺位。當然,這不意味著必須對現有法律體系進行重建式的變動,而是在現有基礎上輔以相應的配套機制以及調整式的補充即可,以達到既維護法的安定性又不阻礙創新的良好效果。

上海市法學會歡迎您的投稿

fxhgzh@vip.163.com

相關連結

羅培新:疫病境外輸入壓力日增,外國人可到中國免費醫療?國民待遇,絕不應等於「國民的」待遇羅培新:醫護人員「集體放棄」抗疫補助?法理事理情理,理理皆輸羅培新:境外輸入壓力劇增,賴帳不付者,道義與法律雙輸,將開啟人生的至暗時刻

娜迪拉·阿不力米提 徐輝:中國股權眾籌中的合格投資者制度研究

孫寶玲:論單位操縱市場行為中責任人員的劃分邏輯謝瀲:我國慈善信託強制執行之困局與破除辛婕:網約車平臺安全保障義務的理解與適用梁譯睿丨共益企業的中國化:法律定位和發展路徑

來源:《上海法學研究》集刊2020年第7卷(中國政法大學、西南政法大學商法文集)。轉引轉載請註明出處。

原標題:《婁雪洋:論人工智慧致人損害的法律規制》

閱讀原文

相關焦點

  • 邢會強:人臉識別的法律規制|比較法研究202005
    從美國有限的既有立法或立法草案、建議來看,其對人臉識別的法律規制因該項技術的使用主體的不同而不同,體現出差異化的規制路徑。具體言之,對於政府部門使用人臉識別的法律規制,有別於對於非政府機構使用人臉識別的法律規制,二者是分別立法、分別規制的,規制的具體方法和價值取向截然不同。
  • 徐顏:試論B2B電商合同的法律規制
    故應以商事合同的法律視角,結合B2B電商合同的實踐特性,在企業信息披露、完善合同條款、減少司法幹預等各個方面對B2B合同加以特別規制,以儘量還原商事主體訂立合同時的目的,推進商事交易繁榮有序。關鍵詞:B2B合同突出特徵 商事合同 法律規制引言當今時代,網絡經濟是深入推進知識經濟的重要引擎。
  • 如何對人臉識別進行法律規制
    就政府部門使用人臉識別的法律規制,特別許可使用制度既發揮人臉識別技術之利,又防範人臉識別技術之弊,是一種更加理性的制度安排。就非政府部門使用人臉識別的法律規制,對人臉信息作出比一般個人信息更為嚴格的特別保護和特別規制,更有利於保護個人的人臉信息。
  • 【調研擷影】商標搶註的認定及其法律規制
    這些惡意搶註商標的行為不僅直接損害商標的在先使用人的經濟利益,同時嚴重擾亂了市場經濟秩序和商標管理秩序,破壞營商環境,應當儘快予以遏制。但在司法實踐中,可用於規制商標搶註的法律依據和懲戒措施卻較為有限,也使得商標惡意搶註行為屢禁不止。
  • 美英法代孕法律規制的倫理思考
    為了遏止地下交易等非法代孕行為, 該法規定實施代孕必須得到代孕的法定主管機構— —人類受精與胚胎研究管理局( Human Fertilization and Embryology Authority, HFEA) 的許可,通過事前預防使代孕置於法律管轄之中。英國法律規制了利他的治療性代孕, 使相關權利人得到法律保護。
  • 如何使用法律規制更好保護人臉識別信息安全
    我國目前對人臉識別技術尚無專門的法律規定,無論是政府、社區、事業單位還是商家,均可以任意安裝人臉識別技術,強制人們「刷臉」驗證。而人們若拒絕「刷臉」,則基本上無法使用相關服務。如若不服,則投訴無門,只能對簿公堂,但訴訟成本高昂。基於此,有必要對人臉識別的法律規制予以深入研究,釐定人臉識別技術應遵循的法律底線,明晰人臉識別技術法律規制的基本要點。
  • 他山之玉 | 席欣然、張金鐘:美、英、法代孕法律規制的倫理思考
    加州為代孕提供了寬鬆的法律環境, 對訂約時合同當事人的意思自治給予充分尊重。但代孕與一般的民事行為有顯著區別, 過分寬鬆的法律規制伴隨著倫理上的重重障礙, 如何合理解答諸多倫理難題成為加州法律面臨的重大考驗。第一,加州法律普遍承認代孕協議的效力。
  • 何培英:中國電影產業發展的政策扶持和法律規制研究
    顧芳、呂巖梅兩位學者主要談到:美國電影的同業公會是美國電影協會早在1922年宣告成立的,在致白宮威爾遜總統的一份備忘錄中談到,美國電影協會著重講述了電影作為一種軟實力能產生巨大作用,電影作為一種宜傳方式,在國家宣傳方面,是一種小成本的宣傳和傳播方式。"全球好萊塢"的霸局已經形成。
  • 我國食品接觸塑料包裝製品再生利用的法律規制:以PET飲料瓶為例
    面對食品接觸再生塑料包裝製品可能帶來的食品安全風險與監管壓力,我國應在法律層面進行規制。、社會組織、消費者多方共同參與出發,加強回收利用環節的法律規制,構建食品接觸塑料包裝製品再生利用的社會共治格局。
  • 人工智慧在法律中扮演何種角色?上海人民出版社三本譯著告訴你
    圖說:《人工智慧與司法現代化》封面 官方圖 下同自2018年以來,上海人民出版社已連續三年推出人工智慧與法律領域的系列圖書——「獨角獸法學精品·人工智慧」叢書,該系列介紹了人工智慧、大數據、區塊鏈、算法等與法律交叉領域的最新學術前沿內容。
  • 規制「霸座」、「買短乘長」...這些事,民法典都管!
    規制「霸座」、「買短乘長」...這些事,民法典都管!法條:八周歲以上的未成年人為限制民事行為能力人,實施民事法律行為由其法定代理人代理或者經其法定代理人同意、追認。熊孩子的家長們,可以要求平臺返還退款的哦!02小區生活篇高空拋物傷人了,怎麼辦?法條:禁止從建築物中拋擲物品。
  • 飼養動物致人損害 民法典怎麼說
    那麼,飼養動物致人損害該由誰來擔責呢?我們一起來看看《民法典》的相關規定。飼養動物損害責任的一般規定《民法典》第一千二百四十五條對飼養動物損害責任做了一般規定,飼養的動物造成他人損害的,動物飼養人或者管理人應當承擔侵權責任;但是,能夠證明損害是因被侵權人故意或者重大過失造成的,可以不承擔或者減輕責任。
  • 論法律學說的司法運用
    第一,從司法論證的起點來看,法律學說為聚焦中心論題提供經驗知識。作為有待於證明的命題,論題在司法裁判中備受關注。在司法裁判中,司法者並非自說自話,而是將裁判文書作為對話、溝通、論辯的平臺。要說服當事人,司法者首先要說服自己。司法說服,第一步就是要總結和歸納司法論證的中心論題。
  • 季衛東:人工智慧時代呼喚法律的範式革命
    7月8日,在世界人工智慧大會召開前夕,上海交大文科資深教授、人工智慧治理與法律研究中心主任季衛東做客第148期文匯講堂《AI的權利和義務,人類說了算?》,上海交大電信學院長聘教授、人工智慧研究院總工程師金耀輝擔任對話嘉賓。 (攝影:王少君 製圖:袁琭璐)  我和大家分享的主題是「人工智慧對現代法律體系的挑戰及其影響」。
  • 法律方法與法律統一適用
    本文轉自【中國社會科學網-中國社會科學報】;法律方法是實現法律統一適用的內在規制力量,正如德國法學家魏德士所言,法學方法論具有平等對待與法的安定性功能。而且,對法律工作者而言,對方法的忠誠起著自我監督的作用。
  • 試論《九民紀要》中公司為他人提供擔保的法律問題
    因此,筆者擬討論《公司法》第16條的規範屬性、交易相對人善意的認定、相對人惡意情形下擔保合同效力及其法律責任等問題,還原實務中公司為他人提供擔保的具體案件形態,為準確適用法律規範,處理相關問題貢獻思路。
  • 「刷單炒信」已形成完整產業鏈 給社會帶來嚴重損害
    北京大學電子商務法研究中心19日發布《電子商務營商環境建設與網絡黑灰產治理報告》(下稱報告)指出,「刷單炒信」已經形成完整的產業鏈,刷單組織逐漸技術化、專業化和隱蔽化,給消費者、平臺內經營者、網際網路平臺企業乃至於整個社會都帶來嚴重損害。
  • 【法律援助】霑化區法律援助中心受理首起 「人身損害賠償標準城鄉...
    1.1點擊藍字關注我們霑化區法律援助中心受理首起「人身損害賠償標準城鄉統一」案件3月12日,山東省高級人民法院《關於開展人身損害標準城鄉統一試點工作的意見》施行,付某交通肇事罪刑事附帶民事訴訟案件成為該意見施行以來霑化區第一件涉及人身損害賠償的法援案件。
  • 人工智慧政策淺析
    美國在軍用飛速發展的同時,民用人工智慧也在飛速的落地應用到不同項目當中,電子和計算機技術取得飛速進步,為用機器代替人執行任務奠定了基礎。就人工智慧武器的風險規制方面,法國的態度一直都較為明確且堅決。雖然法國重視人工智慧武器在國防領域的應用,但明確反對將人工智慧武器轉變為不需要人為幹預的自動化工具,明確提出將有所控制地發展人工智慧武器作為其發展原則。類似地,德國也主張反對武器的完全自主化,要求加強國際合作以控制人工智慧武器的濫用和軍備競賽。
  • 代孕是醫學、道德問題,還是法律問題
    為了遏止地下交易等非法代孕行為, 該法規定實施代孕必須得到代孕的法定主管機構— —人類受精與胚胎研究管理局( Human Fertilization and Embryology Authority, HFEA) 的許可,通過事前預防使代孕置於法律管轄之中。英國法律規制了利他的治療性代孕, 使相關權利人得到法律保護。