自動化決策算法的法律規制

2020-12-04 民主與法制網

  自動化決策算法引起的法律風險已引起越來越多的社會關注,建議推行以國家機關為主體的算法評估或審計制度,切實保障個人的知情權和算法解釋權。

  
  

  在人工智慧應用場景較多的領域,自動化決策算法引起的法律風險已經引起越來越多的社會關注,其中比較典型的是自動駕駛汽車致損和金融領域的數字貨幣被盜案件。在這些引起全球性產業變革和行業競爭態勢變化的科技創新過程中,如何在現有法律的框架內解決算法自動化決策的法律問題,以及在未來的立法和監管制度上平衡高科技企業的利益、個人權益和社會安全,需要從國際視野和「數字中國」建設實際兩個方面出發進行思考。

  

  自動化決策應

  以服務型算法為主要規範對象

  自動駕駛汽車致人死傷案件近年來不斷出現。2016年全球首起「特斯拉自動駕駛」車禍致死案因為舉證困難至今尚未判決(《民主與法制時報》2020年10月22日)。此類案件的發生是自主決定算法的直接侵權責任,也是算法設計者、汽車生產者和銷售者的連帶責任,以及汽車生產者和駕駛員之間的不真正連帶責任,目前缺乏法定劃分標準。此類算法不同於服務合同中算法的侵權責任,應當屬於以算法技術為核心、以產品為載體的侵權責任。因此,它並不能簡單通過業界對一般服務型算法規制所提出的增強算法透明度、賦予權利人算法解釋權來解決問題。服務類算法造成的風險主要是濫用數據挖掘和深度學習技術,不當收集、分析用戶數據,並利用用戶畫像對用戶進行定製化服務,甚至對用戶進行歧視性定價或進行差別化對待。這屬於服務合同中履行從給付義務或附隨義務不適當而引起的侵權責任。當然,此時也有可能形成不正當競爭或壟斷。《中華人民共和國個人信息保護法(草案)》(簡稱《草案》,徵求意見截止日期2020年11月19日)對個人信息的保護,主要適用於此種網絡信息或中介服務而引起的侵權責任。《草案》在第25條第1款規定,利用個人信息進行自動化決策,應當保證決策的透明度和處理結果的公平合理。筆者認為,自動化決策對其權益造成重大影響的,有權要求個人信息處理者予以說明,並有權拒絕個人信息處理者僅通過自動化決策的方式做出決定。《草案》第25條第2款進一步限定了自動化決策的適用場景,「通過自動化決策方式進行商業營銷、信息推送,應當同時提供不針對其個人特徵的選項。」由此可見,該條的自動化決策應以服務型算法為主要規範對象。

  

  自動化決策以必要為原則

  不同於人臉識別技術、地理位置定位技術、會話跟蹤技術等對用戶敏感信息的收集、分析、預測和共享等人格權大數據的不當處理引發的隱私權擔憂,個別的自動化決策(如自動化駕駛汽車、私人數字貨幣的應用等)將在具體產品利用和交易場景下產生特定化的侵權行為。前者可能發生身份被竊取、用戶信息或數據無法消除或被不當利用的潛在風險,後者則會發生人身權和財產權遭受不可逆轉的現實損害。

  目前,《草案》僅在第31條對個人敏感信息的處理規定了必要性原則,並未如歐盟《一般數據保護條例》一樣將「對於數據主體和數據控制者之間的合同達成和履行必要」作為自動化決策的前提。《一般數據保護條例》規定,數據主體要求數據控制者對算法進行解釋,這實際將證明自動化決定必要性的舉證責任分配給了數據控制者。但《草案》第25條則將證明對個人權益造成重大影響的舉證負擔施加給了自然人。

  雖然《草案》第25條也規定了自動化決策的透明度和結果公平合理的前提,但個人顯然在舉證不能的情況下無法行使算法解釋權。算法解釋權是一種非常被動的事後響應措施,數據處理者是否對此進行解釋,或者解釋能否滿足個人的請求,以及如果數據處理者以符合現行國標或行業強制標準為由,逃避對自動化決定行為與行為效果之間因果關係的進一步解釋,個人並無權依據解釋權受損而請求賠償。因此,該解釋權是一種沒有具體權利內容和缺乏法律效果的程序性權利,而非實體性的人格權或數據權。

  

  實行算法審計和評估

  鑑於此,在現行產品責任並不能完全解決自動駕駛汽車侵權損害中的潛在損害,以及因果關係證明責任分擔時,可以考慮引入《一般數據保護條例》中對於解釋權行使必要性的限制條件。同時,考慮到算法控制者可能會通過修改算法底層協議或採用不同程式語言來規避該解釋權,對特殊行業的算法,建議推行以國家機關為主體的算法評估或審計制度,並將這種審計結果以強制信息披露的方式予以公開,使個人的知情權得到切實保護。此外,建議由算法主體在提供自動化決策服務時,盡到《中華人民共和國民法典》第496條要求的特別說明的義務。

  《區塊鏈信息服務管理規定》第9條規定,「區塊鏈信息服務提供者開發上線新產品、新應用、新功能的,應當按照有關規定報國家和省、自治區、直轄市網際網路信息辦公室進行安全評估。」按照中國人民銀行發布的《金融分布式帳本技術安全規範》第12.7條規定,金融服務提供者應對智能合約進行審計,並保留審計記錄。這可能會在一定程度上犧牲企業的商業秘密權,但在未來的長遠發展上,可以平衡企業經濟效益與個人權益保障、社會安全之間的利益,從而促進社會和諧發展。

  (作者系北京化工大學法律系副教授)

相關焦點

  • 【智能與法】陳姿含:公共算法決策的法律規制(二)
    對算法決策中立性的否定,和透明度的需求分析說明將公共算法決策納入法律規制的必要性。但是算法決策的合法性問題的核心不在於它比人類更加不透明,更加複雜或者更加具有偏見,如果是這樣,那麼對人類決策起作用的問題機制經過一系列的修改,即規則的精細化將起到作用。
  • 【智能與法】陳姿含:公共算法決策的法律規制(一)
    [作者簡介] 陳姿含(1987-),山東濰坊人,北京理工大學法學院講師,工信部智能科技風險法律防控重點實驗室辦公室主任,法學博士,生物醫藥法學博士,主要研究方向智能科技與法理學。[1] 張凌寒.算法權力的興起、異化及法律規制[J].法商研究,2019(4):64-75.
  • 網絡消費領域算法應用不公如何規制
    中國消費者協會近日召開網絡消費領域算法規制與消費者保護座談會,中國消費者協會秘書長朱劍橋坦言,技術進步和應用總體上有利於增進人類福利,同時也會造成新的困擾和傷害。在網絡消費領域,可能會減少消費者選擇的時間成本,但是也會讓消費者面臨信息安全、歧視對待等消費風險。「流量至上」「利潤至上」的算法應用,可能會使經營者行為有悖法律、有失道德、有違倫理。
  • 加強網絡消費領域算法規制
    據新華社電 中國消費者協會7日在京召開網絡消費領域算法規制與消費者保護座談會,會議提出有效規制算法應用中的問題,切實解決消費者維權難,更好保護網絡領域消費者權益。  大數據殺熟、刷好評隱差評使評價結果呈現失真、平臺採用算法限制交易、網絡消費促銷規則繁複、網絡搜索競價排名推薦、網絡直播推送違反法律規定和公序良俗……這些問題的背後,核心是網際網路平臺對算法技術的應用。根據中消協調查,網絡領域涉及消費者權益的算法應用問題,包括推薦算法、價格算法、評價算法、排名算法、概率算法、流量算法等。
  • 論算法共謀的反壟斷規制路徑
    競爭者獨立開發和使用計算機算法去實現既定的目標如利潤最大化。通過自主學習和試驗,計算機算法能獨自地決定優化利潤的方式。明顯地,在這種共謀中,以意圖限定的法律思維和協議都難以適用。根據自我學習和從市場上收集數據的反饋,計算機能執行其認為任何的最佳的策略。自主合謀對反壟斷規制是最棘手的。預測共謀因為不存在協議,限制了反壟斷法實施工具的適用。
  • 李偉民:《民法典》視域中區塊鏈的法律性質與規制
    關鍵詞:區塊鏈;區塊鏈技術;智能合約;大數據和算法;區塊鏈規制 前言 區塊鏈是網際網路高速發展過程中新的社會現象,是以大數據為基礎、以網際網路為依託、以區塊鏈技術為支撐、以哈希算法為原理、以合同交易為目的的一種新型行為模式。
  • 邢會強:人臉識別的法律規制 | 比較法研究202005
    二  國外對人臉識別的法律規制  (一)國外對人臉識別的法律規制  1.美國對人臉識別的法律規制  美國是人臉識別及其立法的先行者。從美國有限的既有立法或立法草案、建議來看,其對人臉識別的法律規制因該項技術的使用主體的不同而不同,體現出差異化的規制路徑。具體言之,對於政府部門使用人臉識別的法律規制,有別於對於非政府機構使用人臉識別的法律規制,二者是分別立法、分別規制的,規制的具體方法和價值取向截然不同。
  • 轉基因食品安全法律規制研究
    其中第一百零一條關於法律適用的規定中,涵蓋了轉基因食品,自此,結束了我國轉基因食品安全立法層次不高、只有行政法規和部門規章對轉基因食品安全進行規制的局面。可以說,食品安全法是我國第一部較為全面的、可以用來對轉基因食品的安全性進行規制的法律,對於從前的轉基因食品安全立法中存在的不足進行了一定程度上的完善,代表著我國轉基因食品安全立法的長足的進步。
  • 人類基因編輯實驗的法律規制
    2015年4人類基因編輯實驗的法律規制———兼論胚胎植入前基因診斷的法律議題王 康*內容摘要:人類胚胎基因實驗以人類胚胎或前胚胎為實驗對象,在技術上有基因檢測、基因診斷、基因篩選、基因編輯(基因改造)等類型,引發了一系列倫理、社會和法律爭議。 在國際範圍內,人類胚胎基因編輯被嚴格禁止或限制,而胚胎植入前基因診斷則可能為各國接受。
  • 美國生物技術研究風險法律規制
    作為較早投入生物技術研發的國家,美國對生物技術的立法規制也在不斷發展中。  生物技術的雙重用途研究風險  毫無疑問,生物技術研究對於促進公共健康安全、農業、環境、能源和國家安全至關重要。出於合法目的進行的一些研究有其價值和益處,但這些研究產生的知識、信息、技術和產品可能被用於有益的方面,也可能被用於有害的方面。
  • 數字法治:外賣騎手屢被「算計」,算法透明的是是非非
    不過,算法的複雜性與相關技術盲點應是技術教育和學習而非法律規制應解決的問題,而算法的保密性和算法使用者的刻意隱瞞作為具有法律意義的制度安排和個體行為,則可回歸法律層面予以分析。因算法是算法使用者或算法設計者投入巨大成本訓練而成,通常被保密措施精心呵護。這導致相比於算法使用者的刻意隱瞞,以保護競爭優勢為名的商業秘密制度將為算法使用者故意隱藏規則、操縱消費者和製造歧視創造更多的灰色空間。
  • 決策樹,回歸樹,自動分類,三種自動化學習方法
    關於自動化機器學習的研究一直很火爆,隨著人工智慧的發展,越來越多的人對它感興趣,我也是希望對機器學習感興趣的人關注我的專欄,探索機器學習相關知識。自動機器學習,將統計學、機器學習、深度學習結合到一起,從而可以讓神經網絡能夠應用於各種不同數據類型。
  • 太平洋大逃殺案結:以法律規制人性 |新京報評論
    我們足以以此為案例反思,如何在日常的社會治理中,更好地以秩序規制人性。  王學泰給遊民社會開出的藥方是法治,只有法治,才能將人性之惡關進籠子裡,才能生出一個正常有序的社會場域。  確實如此。如果「2682」號漁船上,劉貴奪們心中有對法律的敬畏,知道若殺死船員一定會接受法律制裁,他是否還會喪心病狂?
  • 馮碩:TikTok被禁中的數據博弈與法律回應
    在TikTok的運作中,算法的主導性體現在自主性方面。它取代了舊時代依靠編輯的信息匹配,轉而依靠固有的代碼發現用戶偏好並匹配其感興趣的信息。然而,人類決策具有千百年積澱下來的道德基礎,而算法決策則是一種基於計算過程實現的輸入/輸出關係,一旦算法主宰就會嚴重侵蝕人的主體性。
  • 全能銀行的潛在利益衝突及其法律規制
    所以,利用法律對之進行防範和控制十分必要。  要考察全能銀行潛在利益衝突的法律監管制度,首先要弄清產生利益衝突的原因,進而弄清其危害,然後才好利用法律監管手段「對症下藥」。一位資深律師曾精闢地指出:「引發利益衝突的原因是多種多樣的,且在不斷變化中。」
  • 法律明確規制 方能把人臉識別系統引入法治軌道
    一家之言    保護公民隱私,不能光靠政府部門的行政要求或決定,還得靠法律的明確規制、約束。  地產圈熱議的售樓處安裝人臉識別系統在南京有了新進展:江蘇南京已有多家售樓處接到相關部門電話通知,要求拆除現有的人臉識別系統,這在全國尚屬首例。  對於人臉識別系統的「刷刷刷」,民眾擔憂已久。
  • 算法到底算什麼?
    於是,法律與算法的關係,當然會成為法律上非常重要的話題。   討論法律與算法的關係,顯然可以同時做雙向的思考:(1)法律對算法的影響;(2)算法對法律的影響。本文主要關注的是「法律對算法的影響」這個話題,這通常也被叫作「法律對算法的介入或規制」;相應地,所要處理的核心問題,就是「法律介入或規制算法的最佳方式是什麼」。
  • 「深度」夏蜀|規制第三方實施:理論溯源與經濟治理現代化
    具有不同實施機制的進化博弈論和重複博弈論,分別適用於對政府規制和市場交易機制的分析。規製作為一種制度,就傳統規制理論角度看,按制度規則的正式規則和非正式規則之分,規制屬於正式規則,它是政府通常以規章或法律對各經濟主體進行幹預和限制的行為。
  • 如何實現算法決策公平?_湃客_澎湃新聞-The Paper
    引言隨著人工智慧的發展,算法決策系統越來越多地被用於輔助甚至是替代人的決策,例如使用算法進行信貸審批、人才招聘、犯罪風險評定等等。由於算法在決策中扮演的角色越來越重要,算法決策的公平性也愈發引起重視。本專題第二期推送為大家介紹了一種將人類意志與算法意志結合起來以提高算法決策公平性的方法,這一期我們將從算法本身出發,為大家介紹Zafar等人在Fairness constraints:Mechanisms for Fair Classification這篇論文中所提出的提高決策公平性的機器學習框架。01什麼是算法決策的不公平性?
  • 機器學習中決策樹的原理與算法 | 科普
    從名字來看,決策的的意思就是在眾多類別中我們需要決策出我們分類的東西是屬於哪一個類別,決策離散型的值的叫決策樹,決策連續型值的叫回歸樹。用學術一點的語言就是決策樹的輸出是離散型隨機變量,回歸樹的輸出是連續型隨機變量,這篇文章的重點是講解輸出是離散型隨機變量的決策樹,當你明白決策樹的運行機理後,回歸樹也就觸類旁通了。