自動化決策的算法解釋權

2020-12-24 中國社會科學網

  如果說網絡立法1.0時代美國《千禧年數字版權法》建立的安全港制度,旨在保護以信息網絡傳播權為主要服務內容的網際網路企業,那麼網絡立法2.0時代則開啟了以個人數據和個人信息為重要保護對象的用戶權利時代。在這個圍繞數據收集、加工、利用和分發為核心的世界數據工廠中,網絡企業利益和個人利益的此消彼長既可能影響私法主體的個體利益,也可能影響不特定群體的利益,甚至會觸及作為社會基本行為規範邊界的法律制度。因此,一些早期網絡立法中不被重視的內容才在人工智慧技術圖景日漸擴大的版圖上再次顯露出來,並彰顯了越來越強的重要性。自動化決策的算法解釋權正是其中之一。

  目前自動化決策算法的主要應用場景有:定製信息的推送、顧問型服務(如智能投顧、機器人醫生)、自動化駕駛汽車、搜尋引擎服務等。儘管法律本體論專家正在努力將規範約束植入機器人的開發協議或計算機晶片之中,但客觀情況是,法律對產品型算法和服務型算法採取了完全不同的責任構成要求。換言之,在具有實體基礎依歸或載體的算法責任事件中,人們過於依賴現行的產品侵權責任的立法,而沒有充分考慮自動化決策算法本身的侵權責任。儘管機器人醫生未必在接入網際網路的狀態下進行工作,但其所用以訓練的數據集和執行具體手術的深度學習算法,可以很容易地同步該領域最新的線上、線下研究成果。因此,建立在技術中立原則基礎上的網絡1.0立法,主要是一種責任免除型而非責任構成型立法,意圖促進當時正處於萌芽和發展期的網際網路企業。然而,隨著時間的推移,不僅資本大舉進入該行業,人工智慧技術的發展也令算法服務的相對人在服務中越來越處於客體化和被邊緣化的地位。算法解釋權可看作人類為捍衛人的自我決定權,對抗數據控制者和處理者的一種努力。

  與網絡立法1.0時代的接入、傳輸、轉發服務所引起的間接侵權不同,網絡立法2.0時代,算法服務提供者更多地以直接侵權行為主體的面目出現。算法服務提供者需要從網絡用戶的個人信息、行為軌跡,甚至投訴過程中,全方位將用戶作為機器學習的樣本、大數據的來源、人機互動的模仿對象和虛擬社會構建的現實場景。在設計、製造和完善算法的過程中,在構建獨立於現實經濟社會之外的虛擬經濟社會時,需要近距離觀察、研究、追蹤、分析,甚至是監測(如各種傳感器、衛星遙感技術、攝像頭等物聯網技術)用戶的全場景的活動。這些數據的碎片共同構成了以自動學習算法為代表的智能工業熔爐的燃料,以甄別、預測、激發用戶需求,從而為用戶定製服務或拒絕服務。用戶在服務中的主動權也不斷被弱化。可見,上述代表性算法服務(產品)都可看作一種廣義的算法技術為核心的服務合同。由此,算法服務提供者便具有了合同法上的從給付義務和附隨義務。

  出於保護企業商業秘密和減輕負擔的角度,不可能要求提供算法服務的企業對所有算法均進行解釋。因此,歐盟對自動化決策的算法解釋權作出了限制。該制度最早見於歐盟《數據保護指令》第15條,由於該條僅規範特定類型的算法,而訴訟中爭議最大的是決策是否純粹由機器(人)做出。因此,該條款既沒有在歐洲法院受到太多重視,更鮮有被歐洲之外法律制度借鑑。隨著深度學習技術的廣泛應用,自動化決策場景增多,引發的爭議也日趨激烈。

  歐盟《一般數據保護條例》在多個條款中規定了自動化決策算法的問題,包括「鑑於」的第71條(以下簡稱「第71條」),正文的第13條、第14條和第22條。作為同樣以「自動化決定」為標題的條款,第22條在第15條的基礎上沒有增加實質性的內容,只是補充了明示同意作為不受自動化決定的例外;並在第15條數據主體有權表達觀點之外,增加了對決定提出異議的權利,將二者概括為獲得人為幹預的權利。這主要是機器學習算法的動態學習程度輸出結果不確定,人類難以有效監督,而人工標籤等歧視性輸入變量,也有導致算法偏見潛在風險。可見,算法解釋權本質是一種基於基本人權而衍生的意志自決權和受到公平對待的權利。有學者僅以第71條來理解算法解釋權,也有學者將正式條文的第13條第2款f項和第14條第2款g項的算法邏輯、數據處理重要性和後果的告知義務看作解釋權,還有學者把第22條解讀為反自動化決策權。誠然,這幾個與自動化決策算法有關的條文具有一定聯繫,其區別於非自動化決策的算法,但它們也有顯著不同。

  《一般數據保護條例》第13條和第14條的算法邏輯、數據處理重要性和後果的告知義務,是一種未產生不公平後果的一般性的、為保護知情權的說明義務。而第71條和第22條則是基於評估結果做出決定的保障措施及其例外條款。第71條和第22條均以將對數據主體產生法律後果或類似重大影響作為前提,並包含了該決定對雙方合同的達成和履行的必要性原則,或決定經過數據主體明示同意的隱性條件。可見,第71條承擔的更多是保護數據主體的權利的立法職能,而第22條則為自動化決策算法設置了必要性和同意的例外條款。從二者的關係來看,根據第71條,即使在例外條款存在時,數據主體依然享有解釋權,僅應受該決定的約束。如果將第71條第2段看成對算法透明原則進行事先規定的話,則第71條第1段所指的,對評估後作出的決定做出解釋的算法解釋權,其實是內含於對抗自動化決定算法的「適當的防範措施」之一,是與明確告知相關信息並告知其有要求人工幹預、表達觀點、異議權相併列的一種請求說明的權利。

  它不同於算法透明原則項下的知情權。根據美國計算機協會2017年公布的算法治理七項原則,知情權是應該披露算法設計、執行、使用過程中可能存在的偏見和可能造成的潛在危害。顯然,它未必與自動化決策和以個人敏感信息評估為前提的決定有關。而該解釋權不僅是一種被動性防禦的權利,可視為與表達觀點、提出異議並列的權利,從而成為獲得人為幹預等替代選擇的基礎。若按這個邏輯進行解釋,可將算法解釋權看成一種對合同履行行為符合雙方締約目的或合同基礎的說明義務。由此,作為提供算法服務的一方主體,根據《民法典》第496條,對於對方有重大利害關係的條款,除參考歐盟《一般數據保護條例》第13條、第14條進行告知外,還負有法定的說明義務,否則對方可以主張該條款不構成合同的內容。故算法解釋權兼具算法服務者說明義務與數據主體自決權的雙重屬性。

  《個人信息保護法(草案)》第25條未規定例外條款,這可能使算法提供者失去了在對方提出異議時,根據必要性原則和明示同意進行抗辯的可能性。更為重要的是,第25條將限縮了解釋權的適用場景,僅規定了產生重大影響,未規定產生法律效力,且將證明是否重大的舉證負擔分配給了數據主體。這對於數據主體行使解釋權十分不利。第54條要求信息處理者對自動化決策進行事前風險評估,並對處理情況進行記錄,這是一種事前的行政性的算法風險評估措施,只能從算法設計角度起到一定的預防性作用,但不能與個人的具體解釋權的權利請求相結合,仍難以實質上成為主張算法服務提供者進行人工幹預,或提供不針對個人特徵的選項的條件。儘管第25條第2款規定了算法服務提供者進行商業營銷、信息推送時,提供無個人特徵選項的義務,但信息推送服務以外的人工幹預可能性很難通過對該款的擴張解釋,或根據第54條的算法評估來實現。

 

  (作者單位:北京化工大學法律系)

 

相關焦點

  • 論算法的法律規制
    2020年引起社會廣泛關注的外賣算法系統,一些網際網路平臺利用算法設置外賣騎手的配送時間,送餐時間被壓縮得越來越短,對外賣騎手的生命健康造成嚴重威脅。而且,這個算法系統採用自動化的機器決策,騎手很難理解和提出抗議。從法律的角度看,算法從幾個方面挑戰了法律的一些基本原則。首先,算法黑箱可能挑戰人類決策的知情權與自主決策。
  • 麗江市配電自動化系統dtu固德力安智慧決策方案
    固德力安智能配電房全國招合作夥伴——麗江市配電自動化系統dtu固德力安智慧決策方案自2015年大勢使然以來,傳統開關成套廠企業開展網際網路化轉型已經不得不慎重考慮。然而傳統開關成套廠企業想轉型升級,不僅僅是電子商務的深入,傳統開關成套廠企業需要推進商業模式、創新方式、管理模式、生產方式、營銷模式的共同變革。
  • 我們需要什麼樣的「算法」?
    這些平臺的自動推薦功能,運用了一種叫算法推薦的技術。這是一種通過人工智慧分析和過濾機制對海量數據進行深度分析、完成信息內容與用戶精準匹配的技術。自從1994年美國明尼蘇達大學研究組推出第一個自動化推薦系統,算法推薦技術如今已深入到資訊、社交、電商、短視頻、搜尋引擎等平臺和網際網路應用中。
  • 廈大新聞學茶座:「新聞算法倫理權衡的兩個尺度」
    也正是在此意義上,算法以其決策步驟的確定性、計算的高效性以及內容分發的精準性,使其在介入新聞實踐時具有了一定的正當性。新聞傳播領域是否也和自然科學領域一樣,會從訴諸樸素的「客觀性」理念,轉而過渡到依靠算法實現「機械客觀性」呢?蘇俊斌在《1844年經濟學哲學手稿》找到了思考實踐的「價值尺度」和「真理尺度」。
  • 展會預告|賓鑫智能亮相2020臺北自動化展 8月我們等你,共赴臺灣之約
    2020年臺灣國際機器人與智慧自動化暨臺北國際自動化工業展覽會將於2020年8月19-22日在臺北南港展覽館1&2館1樓舉辦。臺北自動化展是臺灣最大規模、最專業的機器人與智慧自動化展覽會。「智慧製造」不僅是全球趨勢,更是推動臺灣競爭力的重要驅力。臺灣製造業以中小企業為主體,近年生產模式漸由以量制價轉變為客制化的少量多樣模式。
  • 區塊鏈技術的算法規制
    二、區塊鏈算法的決策自動化   作為一種計算機技術,區塊鏈之所以能夠去中心化,一方面是其獨有的算法機制使得所有參與者集體協作,保證了信息的共享性與真實性;另一方面系統的運行必須脫離任何人或者機構的控制,才能保障信息的客觀真實、全網一致與不可篡改。區塊鏈算法既是決策自動化的體現,也決策自動化的執行機制。
  • 算法推薦讓信息傳播更個性化 但也出現了亂象-中國法院網
    這些平臺的自動推薦功能,運用了一種叫算法推薦的技術。這是一種通過人工智慧分析和過濾機制對海量數據進行深度分析、完成信息內容與用戶精準匹配的技術。  自從1994年美國明尼蘇達大學研究組推出第一個自動化推薦系統,算法推薦技術如今已深入到資訊、社交、電商、短視頻、搜尋引擎等平臺和網際網路應用中。
  • 能被人工智慧取代的工作崗位有以下共性:遠離決策的執行層末端
    事實上,人工智慧(高階)/自動化(低階)的取代是一直存在的,其路徑也是有規律可循的。通常情況下,一個公司從「決策」到「執行」,一層層拆解下去:1、最頂端:公司董事長/CEO有最終決定權,包括公司發展方向,選擇什麼戰場,資源如何分配等。
  • 建模繪圖自動化,AI助力建築設計智能發展
    人工智慧因其強大的學習能力和高效的分析決策能力在許多行業起到了提高效率的作用,在建築行業也已經有一定的滲透,如智能建造,建築能耗預測等。為了將涉及人工智慧的建築設計和以往的自動化輔助設計區分開來,我們將首先回顧一下建築設計與計算機技術結合的不同階段。
  • 智能供配電系統安裝與調試根河固德力安智慧決策方案
    智能供配電系統安裝與調試根河固德力安智慧決策方案固德力安智能配電運維全國招合作夥伴——隨著社會用電的持續增長,工業企業、公建設施等社會各用電領域配電設施的建設數量也在不斷增加,另一方面在相關政策的大力推動下,智能電網的建設步伐也在不斷加快,為智能配網自動化系統、用電終端、高低壓開關及成套設備等產品提供了廣闊的市場空間
  • 最早的算法可追溯到三千年前,「所謂的 AI 並非源自先進的技術」!
    後來,術語「算法」被人們用作表示任何逐步的邏輯過程,並成為計算邏輯的核心。一般來說,我們可以將算法的歷史分為三個階段:在古代,算法可以認為是程序化、規則化儀式的過程,通過該過程實現特定的目標和傳遞規則;在中世紀,算法是輔助數學運算的過程;在現代,算法是邏輯過程,由機器和數字計算機完全機械化和自動化。
  • 清華大學自動化系諮詢委員會成立大會舉行
    彭剛希望各位委員直抒己見、暢所欲言,為自動化學科的發展出謀劃策,助推自動化系的創新發展和人才培養,幫助科研工作者拓展國際視野,培養更加開放的學科交叉融合發展理念,在世界科研前沿開展高水平科學研究,全面提升清華自動化學科和學生培養在全球的美譽度和影響力。
  • 「算法要向善」選擇背後的倫理博弈
    這種轉型呈現出一種「重組」的力量,將現有的時間空間重新切割,再以一種「光電方式」重新擬定節奏、劃定規則、做出決策。線性時間被打碎,信息的「精準推薦」是一種「算法時間」,它調整信息的呈現序列,插入合適的節點,指出什麼才是「適合你的內容」,而不在意「真正的時間」。
  • 司機起訴Uber:要求公布「APP如何用萬能的算法牢牢控制我們」
    騰訊科技訊 在移動網際網路和零工經濟時代,網約車(包括使用打車軟體的傳統計程車)、餐飲外賣等平臺在管理司機、外賣員這些外包工時,往往採用了APP後臺的算法,從訂單的分配一直到報酬的計算
  • 書評:《算法霸權》與大數據時代的正義
    之前我們分析了,現在再來冷靜地思考,與算法共生的新一代人類,如何繼續追求「正義」這一信仰。凱西•奧尼爾的《算法霸權》一書對此進行了深入探討,期待有更多人看到,建設自身的「數據素養」。對了,作者在書的扉頁裡寫著:「這本書獻給數字難民」。
  • 決策樹
    在這種情況下,這顆樹還要繼續生長 (在第二章會考慮此情況)。現在,我來問你:你會加減乘除嗎?你會提問題嗎?你會提一些重要的問題嗎?你會問完之後刪除繁冗的問題嗎?如果你的回答都是「會」,那麼決策樹這種找答案 (分類) 的機器學習算法對你實在是太簡單了!終於有一篇不用做前戲的帖子了。
  • 從萊布尼茨到扎克伯格:算法和它許諾的美麗新世界
    自動化浪潮滾滾而來。工業革命期間,機器取代了手工業者。剛開始也還需要人工操作,但隨著時間流逝,機器變得幾乎不需要人的任何介入就能運轉。這幾個世紀裡,工程師都在將體力勞動自動化;我們最新的工程學精英都有自動化思想。他們有完善的技術,可以接管智力思考過程,讓大腦變得多餘。或者就像瑪麗薩·邁耶(Marissa Mayer)曾提出的那樣:「你得讓文字的人味兒更少一些,機器味兒更濃一些。」
  • 紐約蹭飯手冊:怎樣利用Python和自動化腳本在紐約吃霸王餐?
    這是Instagram算法確定你的曝光度的主要因素之一(通過「探索頁面」)。每天發帖,特別是在每天「尖峰時段」發帖,非常單調乏味。大多數人做了幾周就會放棄,甚至有時一兩天漏發也會導致曝光度下降。因此,將內容收集和分享過程自動化是很有必要的。獲取圖片和視頻我最初考慮用爬蟲從Google圖片或社交新聞站點Reddit上抓取圖片。
  • 數據分析入門系列教程-決策樹原理
    決策樹學習過程那麼決策樹要如何構建呢?通常,這一過程可以概括為3個步驟:特徵選擇、決策樹生成和修剪。特徵選擇:特徵選擇是指從訓練數據中眾多的特徵中選擇一個特徵作為當前節點的分裂標準,如何選擇特徵有著很多不同量化評估標準標準,從而衍生出不同的決策樹算法。決策樹生成:根據選擇的特徵評估標準,從上至下遞歸地生成子節點,直到數據集不可分則停止決策樹生長。
  • 新見|郭銳:什麼是「道德算法」?如何認識它的致命缺陷?
    在人工智慧倫理研究中,主流的看法是既然讓人工智慧決策已經不可避免,應該將倫理嵌入人工智慧技術之中,以便增加人工智慧決策的可靠性和安全性。這種嵌入,也稱為「道德算法」。在道德算法的實現路徑上,人們已經考慮了三種進路:自上而下進路、自下而上進路和某些混合式進路。