上海自動駕駛網約車上路了。 7月8日,在世界人工智慧大會召開前夕,上海交大文科資深教授、人工智慧治理與法律研究中心主任季衛東做客第148期文匯講堂《AI的權利和義務,人類說了算?》,上海交大電信學院長聘教授、人工智慧研究院總工程師金耀輝擔任對話嘉賓。 (攝影:王少君 製圖:袁琭璐)
我和大家分享的主題是「人工智慧對現代法律體系的挑戰及其影響」。從人工智慧的治理,特別是從全面依法治國立場來看,我們都希望人工智慧的發展能納入法律可控的軌道之中,現實的發展也推進著法治的變革。
人工智慧時代的智能網絡化、算法黑箱化、機器自主化呼喚制度創新
大家都能體會到,目前我們整個的社會生活正在發生非常深刻的變化。主要體現在日常生活的方方面面被數字所覆蓋,從網購、外賣、行動支付到電子保險。疫情期間,體溫測量、健康碼、群體檢測更是為防控帶來了技術保障。通過掃碼和刷臉獲得的這些便利的實質是什麼?是幾乎把生活中所有的場面、所有的活動都轉換成了數字形式;隨著虛擬世界/現實世界的二元存在,經濟活動的重點對象從資源轉移到了數據。數據被稱為是21世紀的石油,或價值通貨;市場的主要交易形態也從往日的物品轉換成服務。阿里巴巴十年前提出平臺戰略,希望所有的商店入駐來提供服務,如今因為電商繁榮而成為了常態。
因此,人工智慧時代社會系統變化,歸納起來呈現三個特徵——智能網絡化、算法黑箱化、機器自主化。一方面,科技的規格、代碼似乎正在影響法律;人工智慧的算法在一定程度上會影響到法律的執行和實施;另外一方面,人工智慧也在參與輔助法律實施,加強法律的功能。這樣的背景下,法律秩序的基本概念和制度設計就需要一場範式革命。
上海自動駕駛網約車上路,權利與義務界定將提供重要參考
6月27日,上海發生了一件讓人非常振奮的事情:滴滴自動駕駛網約車服務開始了。然而隨之而來的還有交通事故的風險以及責任主體是使用者還是人工智慧系統、交通規則如何執行等一系列問題。
從法律角度來看,首先要考慮共享乘車服務提供者的資質和信用。目前BAT(百度、阿里巴巴、騰訊)都在提供自動駕駛領域的服務,它們的戰略會影響到自動駕駛的服務狀況,也會影響權利義務的設置。其次,現有的《道路交通安全法》第19條規定駕駛者的資格要件,人工智慧是否也需要獲得駕駛執照?第三,如何界定自動駕駛車輛的智能化級別與法律的關係?一旦導入人工智慧,開始只是部分操作自動化;但到了無條件自動駕駛或者完全自動駕駛,軟體系統本身就成為責任主體。如果出了問題,是找汽車廠商、程序開發商,還是數據提供商追究賠償責任?這個責任如何認定?如何分配?第四,人工智慧的利用者具有不同的類型,但無論是消費利用還是商務利用,就法律而言,似乎都應該採取利用者免責的原則。
對於自動駕駛而言,利用者基於合同接受服務。這時交易的對象不是車輛,而是移動服務,車輛只是為人們移動而提供的一種服務形態。自動駕駛汽車的主要特徵是使用了人工智慧軟體。如果車輛在抵達目的地前拋錨了,意味著服務終結還是換乘其他計程車?在交易對象是車輛時由買主承擔後來的風險,但在交易對象是服務時是不是由賣主永遠承擔後續風險?法律上缺乏明文規定。按理應該把硬體和軟體相區分。如果問題出在軟體,你就不能追究汽車廠商的產品責任。但是,嵌入車輛的軟體的更新責任又在誰呢?是汽車廠商、還是軟體供應商?在車輛故障或因自動駕駛軟體瑕疵引起事故時,會引起一系列複雜的新問題。
上海自動駕駛網約車上路了,面對這一新生事物,我們應及時調研和立法,推動制定自動駕駛的交通安全制度的設計方案,繼續為人工智慧路徑創新提供重要參考。
歐盟出臺的數據權利法案,優劣參半,啟發採取硬法軟法並進方式
從法律角度來看,數據保護有兩端——智慧財產權法與信息安全。數據是人工智慧的養料。數據越多,規模越大,數據的質量越好,人工智慧預測能力也就越強。但數據的收集和應用確實存在著信息安全的風險。歐盟在1996年制定資料庫權利法令,意在通過嚴格保護資料庫智慧財產權的方式促進數據產業,結果失敗了。2018年又出臺《一般數據保護條例》(GDPR),意在嚴格保護數據主體的隱私權,這當然很有必要,也是現代法治精神的體現。
GDPR提到個人享有自己數據可攜式獲取權;數據主體發現數據的收集和使用存在問題有權提出申訴,數據管理者如果不能給出正當理由,就必須終止電腦處理,這種終止請求是數據主體單方就能行使所謂權利的;GDPR第五條還特別強調了收集數據的目的要很明確並且要受到限制,要最大限度地減少對數據的處理和保存,要讓數據保持一種完整、正確、隨時更新且匿名的狀態。
這個世界最嚴數據規則的好處是能夠預防個人的信息隱私權受到侵犯。但問題是數據的本質在於信息,信息很難進行排他性的絕對保護,甚至很難確定數據究竟應該屬於誰。正因為這種事態會助長數據利益分配上的不公平,所以才需要通過數據人權宣言的方式來制衡數據產業的暴利傾向、爭取實現分配的正義,這種立法意圖是可以理解、值得讚揚的。但是,過於嚴苛的隱私保護會使數據的收集和利用變得非常困難。如果整個數據世界被隱私權分割成一小塊一小塊,那就無法有效率地發展數據產業和人工智慧產業。
去年的世界人工智慧大會法治論壇在上海推出了《人工智慧安全與法治導則2019》,強調算法安全、數據安全、智慧財產權、社會就業和產品法律等五個方面,體現了硬法和軟法相結合的原則。這和中國傳統的因勢利導、綜合治理的做法有些相似,強調行政手段以及軟法的作用是顯著特色。比如說數據隱私的保護,歐盟強調的是個人單方行使的權利以及訴諸司法手段,但中國強調的是依法加強行政監管。關於人工智慧引起收入懸殊的問題,有人建議通過向機器人徵稅,但中國強調的是通過財政部門來實施合理的、精準的社會二次分配。關於人工智慧侵權的法律責任,中國方案是要求設計者、生產者、運營者、使用者共同負責,並按照過失的程度進行分擔。
如何防範人工智慧侵犯隱私權?從《民法典》到建數據託管機構
今年5月份公布的《民法典》單獨設立人格權編,這也是一種中國特色,也回應了大數據和人工智慧時代的需求。《民法典》人格權編界定了隱私和個人信息的權利範圍,特別在第1034條強調了保護個人的健康信息和行蹤信息;在大數據的收集上,規定了處理個人信息必須遵循的原則和條件以及信息安全保障的義務;《民法典》還規定了個人信息主體的權利構成,包括查閱權、複製權、更正權、刪除權等等。在網絡侵權責任方面強調了網絡服務提供者要履行注意義務,明確了數據和虛擬財產受法律保護。
在這裡,制度設計不得不面對某種兩難困境:注重個人信息和隱私的保護就有可能妨礙數據以及人工智慧方面的產業發展,注重數據驅動的經濟效益卻又容易侵害個人尊嚴和隱私,甚至引發信息安全問題。要兼顧這兩個方面,就需要認真對待制度設計問題。
值得深入探討的一種對策是:中國應該考慮設立數據託管機構,對寄存個人數據的主體給予適當的積分獎勵。數據託管機構對數據進行匿名化處理,企業可以在通過資質審查後採取繳納使用費的方式來獲得和處理數據,而數據主體也可以適當分享數據產業的利益。在日本,已經出現了設立複數信息銀行的構想,個人可以像存款那樣把信息儲蓄到銀行,企業向信息銀行借貸個人信息。在中國,也許公共性質的數據託管機構更適合國情。
「代碼就是法律」的現象實際存在,能否從兩者並行找到切入點?
美國學者勞倫斯·萊斯格教授在1999年提出一個命題:Code is law,代碼就是法律。如今這樣的例子很多。比如,為了保護電視節目的著作權,規定所有的DVD製作按某個技術標準只能複製一次,不能再複製到其他DVD上,以防不法者盈利。但這樣也會妨害正常的學習和欣賞。無論如何,這種現象說明技術規格在相當程度上取代了法律來決定人們的行為方式。
隨著疫情防控推進,各地健康碼成為一個非常方便的應用場景,也帶動了城市政務治理的技術升級,極大便利了民眾。通過網絡平臺進行數位化治理以及經濟活動,各種服務關係更需要以法律來明確界定權利、義務關係。由此可見,人工智慧的技術規格和數據的安全分級標準的制定工作已經迫在眉睫。
隨著全國人大常委會6月份對《數據安全法草案》等法案的審議工作推進,同時對人工智慧數據安全立法調研的展開,或許將出現 「代碼與法律並行」的局面,我們從中可以找到治理方式創新的契機或者切入點。
如何應對算法黑箱化?建議承認「機器人的主體資格」,以人工智慧制衡人工智慧
在人工智慧時代,從法學角度來看,算法黑箱化是一個問題,要解決這個問題,強調算法透明化、強調人類的介入和監控固然必要,但較難收到預期效果。在這種情況下,以人工智慧制衡人工智慧、以代碼制衡代碼也許是更可行的對策。其中特別值得留意的是區塊鏈技術。它的本質是數據處理分散化、讓中樞的作用簡約化,通過加密的哈希值實現個人隱私的黑箱化,在網絡共識中形成相互信任。也是通過具體的智能合約來決定網絡中的權利義務,並可以制衡人工智慧的程序算法。
一般而言,人工智慧是一個規則嵌入系統,它可促使法律的規範嚴格執行,形成硬法。但是,在智能網絡化的情況下,不同人工智慧系統之間的互動關係非常頻繁而複雜,單憑硬法不免有些簡單粗暴,必須藉助軟法來補充和協調,需要加強溝通和程序公正。另外,在算法黑箱化的情況下,人工智慧系統越複雜出現操作失誤的可能性就越大,問責也變得越困難。如果讓人工智慧系統的開發者、製造者為算法失誤承擔無限的連帶責任,就會妨礙人工智慧的發展。為了使這種責任有限化,為了確保智能合約的違約責任能夠依法追究,有必要承認機器人的主體資格。實際上,只有當機器人有主體資格時,以人工智慧來制衡人工智慧的構想才能落到實處。
綜上所述,人工智慧將引起法律範式的巨大創新:從物權到服務評價的權利觀念變化;從法律到代碼的規範形態變化;承認機器人的主體資格,以便追究智能合同的違約責任並使人工智慧開發者、生產者的責任有限化。(季衛東)
(作者為上海交大文科教授、人工智慧治理與法律研究中心主任)