唐林垚:「脫離算法自動化決策權」的虛幻承諾

2020-12-18 澎湃新聞

原創 唐林垚 上海市法學會 收錄於話題#法學47#核心期刊47#原創首發47#東方法學5

唐林垚 中國社會科學院法學研究所助理研究員,法學博士、博士後。

內容摘要

歐盟《通用數據保護條例》(GDPR)第22條應作權利而非禁令解,由此產生的「脫離自動化決策權」存在與「更正權」競合之表象、與「獲解釋權」補強之曲解以及與「被遺忘權」混同之誤判。界定該權利應把握兩條主線:(1)GDPR序言第71條賦予數據主體的三種基本權利乃相互並列而非互為因果;(2)權利內涵隨技術發展嬗變,在基於資料庫編碼的計算機自動化場景為脫離數據採集,在基於機器學習的算法自動化場景為脫離用戶側寫,在基於神經網絡的超級自動化場景為脫離平臺交互。破除權利失語的關鍵在於適用條件去場景化以及自甘風險式的豁免進路讓位於實現公共利益所必須的法定許可。若不囿於既定框架,陳情權和離線權的重構思路各有合理之處,但應防範可能產生過高的社會成本。

關鍵詞:脫離自動化決策權 更正權 獲解釋權 被遺忘權 豁免規則 自甘風險

自動化決策是與自然人決策相對立的概念,意指利用計算機技術(1980-2000)、算法程序(2000-2020)、深度學習或神經網絡(2020+)替代自然人處理關鍵數據,憑藉其自動生成對數據主體具有法律效果的決策的行為。歐盟《通用數據保護條例》(下簡稱GDPR)第22條第1款允許數據主體「脫離自動化決策」,國內主流學者將其翻譯為「反對自動化決策」或「不受自動化處理的決定的限制」,但依照原文「有權不成為自動化決策支配對象(not to be subject to a decision based solely on automated processing)」之表述,將其譯為「脫離自動化決策」更為妥當。第22條第1款雖然在文義上賦予了數據主體脫離完全依靠自動化處理對其做出的具有法律後果決策的權利,可是具體該如何脫離、能夠脫離到何種程度,僅憑第22條無從知曉。

我國雖未進行相關法律移植,但在實踐中以行勝於言的方式,一定程度上實現了上述「脫離自動化決策權」的精神內涵。一個貼切的例子是:政府部門允許個人在健康碼的結果同實際情況不符時,撥打12345熱線發起糾錯申請,經縣級防控指揮部核實確認後,即可修改風險判定結果。該實例向我們充分展示了三個深刻的現實:其一,在疫情防控常態化的背景之下,數據主體與自動化決策「脫鉤」將寸步難行,即便行使了「脫離自動化決策權」,也不過是對不公正結果的暫時糾偏,不能、也不可能完全脫離自動化決策;其二,即便效果有限,「脫離自動化決策權」也是一種值得保護的法律權利,因為無論自動化技術有多麼先進,出錯在所難免,此時,適當的人工介入乃數據主體脫離自動化決策失誤的補救之道;其三,「脫離自動化決策權」是一種頗為特殊的權利,有著不同於一般請求權的行使要件和適用場景。例如,GDPR第16條規定了數據主體的「更正權」,允許數據主體在不違反處理目的的前提下,完善或更正不充分的個人數據。我國網絡安全法也有類似的規定,且被最新頒布的民法典所吸納,成為人格權編中的重要條款。似乎,撥打12345發起健康碼糾錯申請,是當事人在行使法定的更正權。對此,需要釐清的是,無論是歐盟還是我國,數據主體行使更正權可以更正的對象,只能是個人數據而非數據經自動化處理後產生的決策結果,兩者有著指向性的區別。就行權擬取得的法律效果而言,「更正權」甚至算不上最低程度的「脫離自動化決策權」。

在自動化應用結構性嵌入社會運營的大趨勢下,「脫離自動化決策權」絕非請求人工介入、修改決策結果這麼簡單,否則GDPR第22條大費周章、甚至有些迂迴曲折的立法嘗試將毫無必要。「脫離自動化決策權」的內涵和外延究竟是什麼?與GDPR保障數據主體的其他權利有何關聯和區別?正確理解「脫離自動化決策權」背後的核心價值與理論基礎,將對我國未來人工智慧立法帶來重要啟示。

從DPID到GDPR:歷史沿革與理論爭議

「脫離自動化決策權」並非GDPR首創,始見於1995年歐盟《個人數據保護指令》(下簡稱DPID)第15條第1款:「數據主體享有免受基於用戶側寫的完全自動化決策的權利」。該權利的行使以兩個必要條件為前提:(1)自動化決策必須對數據主體造成具有法律後果的重大影響;(2)用戶側寫完全由自動化處理實現。

(一)DPID第15條的歷史遺留問題

DPID是GDPR的前身,兩者前後間隔23年,在此期間,有兩個事實需要注意。其一,自動化決策實現了技術層面的飛躍,逐步改變了探討「脫離自動化決策權」的語境。在制定DPID並推行的20世紀90年代,自動化決策主要指基於資料庫編碼的計算機自動化,即利用計算機替代自然人實現唯手熟爾的重複性基礎工作和流程性工作。2000年之後,基於資料庫編碼的計算機自動化逐漸讓位於基於機器學習的算法自動化,其實質是作為編程理論典範的透過規則本原尋求邏輯。大數據加持機器學習模型,在範圍不確定的環境中進行規律挖掘或模式識別,替代自然人實現溫故而知新的基礎性預測工作與規範性鑑別工作。GDPR自2018年5月開始生效,基於機器學習的算法自動化正逐步向基於神經網絡的超級自動化邁進。隨著數據平臺的開源共享以及機器學習模型的重疊交互,今天的自動化決策已經漸次突破立普斯基所稱「自然人可以、機器人不行」的推理和演繹的智能上限,其獲得識辨特定時期的法律和社會運行宏觀規律、以超乎常人的洞察力來提供制度解決方案或進行價值判斷的奇點臨近。在這個階段,自動化決策將是「以任何信息技術設備為載體、以持續控制形式幹預和引導日常社會互動的高度自主的精細化治理秩序」。括而言之,雖然用語均是「自動化決策」,但DPID的自動化決策概念僅僅涵蓋了基於資料庫編碼的計算機自動化和基於機器學習的算法自動化,而GDPR的自動化決策概念囊括了迄今為止所有的自動化類型。這是筆者研究「脫離自動化決策權」需要顧及的權利適用範圍變化。DPID和GDPR「脫離自動化決策權」的微妙差異如圖一所示。

圖一DPID和GDPR「脫離自動化決策權」之差異

其二,在DPID的整個生命周期內,第15條幾乎完全處於休眠狀態,但GDPR第22條依舊毅然決然地承襲了DPID第15條的規定,歐盟部長委員會於2018年通過的《關於個人數據處理的現代化保護公約》第9條也吸收了DPID第15條的相關規定。這或許意味著,在基於機器學習的算法自動化和基於神經網絡的超級自動化大行其道的場景中,「脫離自動化決策權」更有適用和推廣的必要。此前,「脫離自動化決策權」一直被戲稱為DPID中的「二等權利」,因為在歐盟法院和各成員國法院的審判實踐中,對抗雙方從未就該權利的行使方式和法律效果展開有實質意義的辯論:「脫離自動化決策之訴」客觀存在,但是雙方總是聚焦於有爭議的決策是否完全由自動化處理作出。例如,德國聯邦法院在SCHUFA案中裁定,資信考察系統輸出的信用評價不屬於DPID第15條所界定的完全無人工介入的自動化決策範疇,因為銀行對其客戶的信用評價實由自然人在自動化決策的「輔助」下完成;法國最高法院認為,執法者採取算法自動化系統進行裁決輔助,也不受DPID第15條的約束。前歐盟個體保障局在工作報告中指出,DPID第15條不是針對數據保護可以推而廣之的一般性原則,而是針對特定自動化用戶側寫的例外原則。伴隨早期立法嘗試鎩羽而歸的新問題是,GDPR第22條相對於DPID第15條的修改,能否讓「脫離自動化決策權」煥發新的活力呢?

(二)規則演進與責任豁免

相較於DPID第15條,GDPR第22條的進步主要體現在以下三個方面:

其一,GDPR第22條對於特別敏感的個人數據給予了更多關注。第22條第4款規定,數據主體有權脫離依據涉及種族、民族歷史、政治觀念、工會、基因、自然人健康和性生活取向等數據形成的自動化決策。若且唯若數據控制者取得數據主體的明確同意或為實現公共利益所必須的法定許可時,才能不受幹擾地處理此類敏感信息。由此可見,GDPR在個人數據類型化處理方面,具有比DPID更高的「顆粒度」。

其二,GDPR第22條拓展了「脫離自動化決策權」的行權範圍,將未成年人的個人數據納入特別保護對象。GDPR序言第38條指出,對未成年人個人數據的具體保護「尤其應適用於可能供機器學習模型生成用戶側寫的數據」。序言第71條規定,基於用戶側寫的自動化決策不作用於未成年人。相較之下,DPID並未就未成年人數據保護作出相關規定,也難從相關條款中推定未成年人是否應當享有「脫離自動化決策權」。對未成年人個人數據予以特殊保護,彰顯出法律順應市場需求與時俱進:隨著網際網路低齡時代的到來,九零後逐漸成為被輿論拋棄的「後浪」,零零後甚至一零後接過泛娛樂時代的大旗稱雄網絡。研究報告表明,零零後在餐飲、顏值經濟等領域已經成為消費主力。數據控制者深諳「得零零後者得天下」「營銷要從娃娃抓起」「先入為主培養消費習慣」的道理,在巨大商業利益的誘惑下,社交媒體、電商平臺、視頻網站對未成年數據趨之若鶩,競相獲取新生代個體的瀏覽歷史、個人軌跡、消費記錄、點讚和收藏列表等——精準針對未成年人的內容推送和價值觀引導接踵而至,箇中風險不言而喻。

其三,GDPR第22條拓展了「脫離自動化決策權」的適用範圍,不再局限於DPID第15條「用戶側寫完全由自動化處理實現」的行權限制。依照GDPR第22條「有權不成為自動化決策支配對象,包括用戶側寫」的表述,似乎「自動化決策和用戶側寫」共同構成了「脫離自動化決策權」的適用場景。也即是說,自動化決策無論是否以用戶側寫實現,均可以引發數據主體行使「脫離自動化決策權」。反過來,用戶側寫無論最終是否形成自動化決策,也終將受到GDPR第22條的約束。多名學者對此表達了異議,例如,門德薩和拜格雷夫認為,上述理解方式「違背了第22條的基本原理和立法背景,原文中的『包括(including)』應當被解釋為『涉及(involving)』」。布爾坎認為,現今自動化決策必然涉及用戶側寫,因此圍繞第22條的爭議可謂毫無必要。在筆者看來,反對派觀點的學者至少犯了兩個方面的錯誤:(1)未能深入考察自動化決策從最初基於資料庫編碼的計算機自動化,到近來基於機器學習的算法自動化,再到未來基於神經網絡的超級自動化的躍遷過程,理所當然地認為自動化決策就是機器學習模型依照特定算法進行用戶側寫形成的決策。實際上,自動化決策若由計算機檢索資料庫編碼作出,就根本不涉及用戶側寫的過程;若由神經網絡的實現,用戶側寫只是超級自動化決策的一個環節。(2)將GDPR第22條視為DPID第15條的單純延續,未能深究措辭變化背後可能蘊藏的政策轉向。概括適用到局部適用的條件變化,使得本來共同構成DPID第15條必要條件的自動化決策和用戶側寫,在GDPR第22條中轉變為充分條件。這也從正面證實了,DPID第15條僅允許數據主體在基於機器學習模型的算法自動化情形中行使「脫離自動化決策權」,而GDPR第22條可以同時適用於基於資料庫編碼的計算機自動化、基於機器學習的算法自動化乃至基於神經網絡的超級自動化的所有情形,權利的適用範圍被大大拓寬。

遺憾的是,雖有上述大刀闊斧的修改,自GDPR生效至今,絲毫未見「脫離自動化決策權」的復甦跡象。作為一項值得被保護的法律權利,為何「脫離自動化決策權」經常被遺忘、極少被行使、幾乎與現實相「脫離」?這個問題的答案首先在於GDPR第22條相對於DPID第15條並未發生實質性修改的「適用條件」——數據主體有權請求脫離的,必須是「完全依靠自動化處理」產生的決策,這無疑極大地提高了「脫離自動化決策權」的適用門檻。無論是基於資料庫編碼的計算機自動化、還是基於機器學習的算法自動化,最低限度的人工介入實為不可避免,無論是出於維護機器運轉之必須、還是確保數據結構化處理的一致性、亦或是確認機器學習模型未脫離「算法代碼的韁繩」。針對適用門檻的權威解釋長期缺位,進一步加劇了法條本身的模糊性,使得各參與方只能完全依照字面理解來調整自身的行為——既然一丁點自然人參與的「蛛絲馬跡」便能推翻數據主體對GDPR第22條的信賴利益,「脫離自動化決策權」被完全架空的結果並不出人意料。

「脫離自動化決策權」的式微,還源於過於寬鬆的豁免條件。DPID第15條規定,數據主體主動要求並同意接受自動化決策服務時,將受到類似「禁止反言原則」的約束;在籤訂合同時,只要數據控制者或處理者採取了合適的措施來維護數據主體的合法權益,那麼純粹自動化決策的效力將不受挑戰。GDPR實際上擴大了DPID的豁免範圍,在第22條第2款中明確規定了「脫離自動化決策權」不適用的三種情形——當事人同意、法律授權以及合同約定。在上述三種豁免情形之外,GDPR第4款額外增加了需要和其他法條相互參照的行權限制條件。第22條第3款雖然對豁免條件進行了適當限縮,要求「數據控制者應當採取充分措施保障數據主體的權利、自由和正當利益,允許數據主體對數據控制者進行人工幹涉,以便表達其觀點和對決策表達異議的基本權利」。但是深究該款措辭不難看出,在豁免情形中,數據控制者依法應當保障數據主體的,只是「數據主體進行人工幹涉」而非「數據主體請求數據控制者進行人工幹涉」的權利,並且,數據主體進行人工幹涉是為了表達其觀點和對決策表達異議,具有「反對權」而非「脫離自動化決策權」的外觀。易言之,「脫離自動化決策權」豁免條件生效,只需以對反對權的保障作為前提,而反對權已在GDPR第21條中得以單獨規定:「出於公共利益、官方權威、控制者或第三方追求正當利益所進行的數據處理,包括根據相關規定進行的用戶側寫,數據主體有權隨時反對。」第22條第3款對第21條的簡單重複並未實質性提高數據控制者的豁免門檻。

(三)「權利」與「禁令」的實質之爭

在適用條件苛刻、豁免門檻過低的雙重製約下,「脫離自動化決策權」賦予數據主體的權利在法律上並非以「可執行的狀態」存在,數據執法機關在實踐中也很難將第22條作為切實可行的執法依據。實踐中,對GDPR第22條的內在屬性的認識割裂,在立法者和執法者之間漸次成型:立法者認為自己為數據主體創設了一種在特定情形中可以行使的權利,但執法者只將其視為針對特定類型自動化決策的禁令。與GDPR相對應的《歐盟執法指令》(下簡稱LED)第11條針對特殊類型的自動化決策連續使用了三個「禁止」,顯然是將GDPR第22條視為一條禁令,招來了多數成員國的質疑。從執法者的角度來看,禁令思維確實更易於執法活動的開展,也在表面上維護了GDPR與LED的和諧統一。但此種「為了執行而執行」的粗淺認識罔顧了歐盟立法者在個人數據保護方面的大局觀,強行以LED第11條的規定去統合GDPR第22條的實現方式反倒會破壞歐盟整體數據保護框架的一致性。

在筆者看來,以權利思維而非禁令思維理解GDPR第22條,至少有三點好處:其一,承認GDPR第22條為數據主體可以行使的「脫離自動化決策權」,同第22條的字面表述相吻合,同時也符合立法者以法律規則「鉗制」自動化決策過程的主觀想像;其二,權利思維契合當下自動化決策被廣泛應用於私營和公共部門的現實,對特定類型的自動化決策不宜一概禁止而應當考察其應用場景;其三,權利思維更符合辯證法所崇尚的自然科學觀,即自動化決策完全可以給社會整體帶來可觀的利益,而非總是因外部性擴散催生社會成本。總而言之,以禁令思維理解GDPR第22條的做法過於簡單,這其實是LED其他條款也或多或少存在的共性問題,反映出人工智慧領域立法者與執法者難以消磨的思維偏差以及由此產生的釋法斷層——可解釋的法律不可執行、可執行的法律不合解釋;如何儘可能縮小兩者之間的差距,是在規則的應然和實然爭辯之外,值得學術界和實務界上下求索的基礎問題。

作為一項披著禁令外衣的權利,「脫離自動化決策權」本質上是一項請求權,是自動化決策關係中數據主體請求數據控制者「為或不為一定行為的權利」,數據主體不能對自動化決策的權利標的進行直接支配,而只能請求數據主體予以配合。由此引出了本文的關鍵問題,「脫離自動化決策權」究竟賦予了數據主體哪些請求數據控制者「為什麼」與「不為什麼」的權利?

長期以來,有關GDPR第22條所界定的權利性質、正當性與適用範圍的爭論從未停止,由此形成的學說千姿百態,其中存在兩種常見的誤解。一種誤解是將GDPR第22條視為算法可解釋性要求的圓心,與GDPR中「獲解釋權」的多個條款互為補強;另一種誤解是將「脫離自動化決策權」與「被遺忘權」混為一談,將數據主體脫離自動化決策的嘗試等同於向數據控制者行使擦除個人數據的請求權。在應用層面上,將「脫離自動化決策權」視為數據主體請求「獲解釋」或者「被遺忘」的權利,具有一定的可操作性,實為將GDPR第22條作權利解的大前提下,權利思維向禁令思維有限度的靠攏的折衷之舉。這兩種不同的理解進路,正是導致「脫離自動化決策」被翻譯為「反對自動化決策」或「不受自動化處理的決定的限制」的根本原因,也同時反映出各版本譯者絕非生硬幹澀地對原文進行單純直譯,而是在極高的人工智慧法學造詣之上融入了自身對GDPR各條款的深入理解,縝密的法律思維可以從別具匠心的意譯表達中窺見一斑。那麼,「脫離自動化決策權」同「獲解釋權」「被遺忘權」之間的區別是什麼?各權利之間的區別是虛是實?從權利思維出發,GDPR為即將到來的超級自動化時代建立了怎樣的制度防火牆?「脫離自動化決策權」在自動化治理中的地位和功用是什麼?

必也正名乎:三權並立的聯動體系

本部分將從「脫離自動化決策權」同「獲解釋權」「被遺忘權」的差異入手,一則反思「脫離自動化決策權」的立法初衷;二則探討「脫離自動化決策權」的實質內涵。

(一)「脫離自動化決策權」非「獲解釋權」之補強

大數據、雲計算和人工智慧技術的突飛猛進,「革命性地改變了網絡空間內主體的能力差異和關係結構」,傳統的法律制度難以應對技術黑箱掩映之下受眾操控、信息尋租和監管套利的三重失控,對算法可解釋性的合規要求應運而生。雖有學者反覆指出,旨在提升算法透明度的硬性規定「既不可行,也無必要」,但在漫長的監管實踐中,算法可解釋性的合規要求還是成為了世界各國人工智慧法律法規的核心要旨,即便是那些高度依賴事後問責機制的國家,也不否認算法可解釋性實乃人工智慧時代「對抗數據個體的主體性和自治性淪陷和喪失的內在之善」,是明確自動化決策主體性、因果性和相關性以確定和分配算法責任的重要前提。究其根源,在公眾問責空前加強的年代,任何新技術的批量部署都必然被置於傳媒與社會持續性互動的場域之中,以逐漸打消公眾質疑、充分回應社情民意以及成功取得多數人同意為其合法性基礎。

令人感到疑惑的是,在制定過程中反覆強調算法可解釋性有多麼重要的GDPR,只在條例第5條第1款籠統地要求對涉及數據主體的個人數據,應以合法、合理、透明的方式進行處理。顯然,公開透明的數據處理方式並不足以確保算法可解釋性,頂多被視為算法可解釋性眾多構成要件中不可或缺的一環。實踐中,人們不得不結合GDPR的序言,為算法可解釋性要求尋找依據。GDPR序言第71條指出,接受算法自動化決策的數據主體應當享有「適當的保護」,因為潛在的機器錯誤和數據歧視極有可能給整個社會帶來「偏見和不公」。第71條隨即將「適當的保護」分為三類:一是獲得人類幹預的權利;二是表達異議和質疑的權利;三是獲取相關決策解釋的權利。就此而論,GDPR是從數據主體「獲解釋權」的進路出發,來反向構建算法可解釋性的合規要求。佐證這一現實的依據是,GDPR第13條、第14條、第15條分別規定了直接從數據主體獲得個人數據、間接從數據主體獲得個人數據以及因各類原因訪問個人數據的數據控制者向數據主體履行詳細信息披露義務以及就特定事項進行進一步解釋說明的義務,尤其是「決策過程所涉及的邏輯程序及其對數據主體的重要意義和可能影響」。

但是,從GDPR第13至15條引申出來的「獲解釋權」完全局限於數據的搜集和處理階段,如此「事前解釋」只能膚淺地讓數據主體得知自己個人數據的處理概況和潛在影響,並不能讓數據主體真正知曉最終形成的自動化決策與其當下際遇之間的因果關聯。很明顯,處於信息極度弱勢地位的數據主體,主動行使「獲解釋權」的理想預期,是要獲得其在承受自動化決策階段的事中和事後解釋,而GDPR對此語焉不詳。在此種背景下,部分學者將GDPR第22條視為同第13至15條的銜接,補足了事中和事後「獲解釋權」的法律真空。

誠然,GDPR字面規定的「獲解釋權」確實存在事前、事中和事後脫節,導致權利難以覆蓋自動化決策全過程的問題,但是,銜接斷裂的問題完全可以通過直接補充規定的方式予以修復,實在沒有必要在距離13至15條「至少7條開外的」第22條中以如此晦澀、隱蔽的方式對事中和事後的「獲解釋權」進行界定。歐盟立法者之所以不在GDPR中建立完整的「獲解釋權」鏈條,極有可能源於兩個層面的思考和顧慮。其一,批評者們看到的是一個設定一項「獲解釋權」就可以讓自動化決策可解釋的世界,而這種理想願景同當今技術運作的現實情況存在巨大鴻溝。尤其是在事中和事後階段,隨著機器學習模型的日益複雜、卷積神經網絡的廣泛適用、數據搜集源頭的交匯重疊,要真正就自動化決策的運作原理與裁判機製作出詳細且外行人也能理解的解釋,可謂難上加難。事前的各類解釋或許有助於數據主體作出是否同意自動化決策的判斷,但考慮到人工智慧是以技術手段對自然人的深度仿生,以預期效果為導向的、事中和事後的因果關聯嘗試極易將物質表象的經驗規律同內在直覺的感性判斷混淆起來,最終只能得到故弄玄虛、毫無根據的假設而非解釋。其二,算法可解釋性的合規要求,必然伴隨相當可觀的合規成本。「獲解釋權」的規定越是完整無遺漏,身處信息弱勢地位的數據主體前期締約和談判的成本就越低,但因此增加的其他成本則完全由數據控制者或處理者概括承受。長期以來,對於此類成本轉嫁是否合理的爭論從未平息。一方面,正如上文所指出的那樣,數據控制者針對自動化決策進行的事中和事後解釋極有可能屬於徒勞無功的解釋,經常是「解釋了也是白解釋」;另一方面,完整意義上的「獲解釋權」至少在一定程度上有助於消弭算法歧視、降低數據控制者和數據主體之間的信息不對稱。對於此類「或有或無」的法律規則,現代法經濟學給我們的教義是:應當衡量法律實施的成本與潛在社會收益之間孰輕孰重,即那些看似公平的原則是否同時也是那些符合效率的原則。在全球人工智慧競爭白熱化的階段,說服各國政府和跨國大型公司建立事前、事中和事後的「獲解釋權」閉環實屬痴人說夢。

(二)「脫離自動化決策權」不與「被遺忘權」混同

在「脫離自動化決策權」難同「獲解釋權」等量齊觀的情況下,另有一些學者試圖將GDPR第22條視為「被遺忘權」相關條款的延伸乃至重複。因為在歷史上,「被遺忘權」的創設同「脫離自動化決策權」的發展有著千絲萬縷的聯繫。

在2010年Google Spain v. Costeja Gonzalez案中(以下簡稱谷歌案),原告要求被告谷歌公司刪除12年前因為房屋網絡拍賣而在搜尋引擎中陳列的、已經過時的個人信息。歐盟法院在裁判時,從DPID中推導出了數據主體應當享有的「被遺忘權」,依據是第6條「個人數據的處理應當適當、相關、同被處理(以及進一步處理)的目的吻合,在必要時進行更新以保證準確性」以及第12條允許數據主體「更正、擦除以及屏蔽不符合DPID所規定的處理的數據」。2013年歐盟《信息安全技術公共及商用服務信息系統個人信息保護指南》吸收了歐盟法院的判決和DPID的前述規定,直截了當地建議:「當數據主體有正當理由要求刪除其個人數據時,應及時刪除個人數據。」GDPR第17條對「被遺忘權」進行了直接規定:「數據主體有權要求數據控制者擦除關於其個人數據的權利。」

「被遺忘權」與「脫離自動化決策權」的混同,源於谷歌案引發的有關搜尋引擎性質的爭議。一方認為,搜尋引擎只是數據的媒介,而非嚴格意義上的數據控制者或者處理者,一如谷歌的首席法律顧問沃克在接受《紐約客》採訪時所言:「我們不創造信息,只是讓信息變得可訪問。」另一方則針鋒相對地指出,搜尋引擎在信息處理方面並非全然被動,結果的呈現方式與先後次序,即是搜尋引擎處理數據後形成的自動化決策。從搜尋引擎公司「競價排名」的常見盈利手段來看,顯然後者的觀點更有說服力。將搜尋引擎確認為數據控制者,可以推導出一個能夠達成共識的認知,即谷歌案中原告向谷歌公司行使「被遺忘權」,是希望谷歌公司能夠對特定搜索結果進行人工幹預,實現「脫離自動化決策權」的行權效果。應原告訴求進行人工幹預的結果並非真正讓原告在網絡世界中「被遺忘」,而是讓谷歌的搜索界面不再將原告已經過時的信息納入排序算法。也即是說,作為數據主體的原告行使「被遺忘權」擬達到的效果實際上是脫離搜尋引擎的自動化決策。此種做法自欺欺人的地方體現在,搜尋引擎沒有辦法、也沒有權力真正刪除所有包含數據主體希望被遺忘信息的頁面,而只能將這些頁面在搜索結果中隱去,如果在地址欄中輸入這些頁面的網址,仍將能夠打開這些頁面。需要注意的是,有不少熱門網站專門記錄谷歌刪除或移除掉的連結,例如Hidden From Google、Wikimedia和Reddit等,使得希冀行使「被遺忘權」的數據主體常常陷入越描越黑的境地,即使脫離了搜尋引擎的自動化決策也脫離不了「好事者竟趨焉」的無事生非。在這個意義上,「脫離自動化決策權」似乎是行使「被遺忘權」的主要手段,也是行使「被遺忘權」能夠實現的最低目的,部分學者將GDPR第22條視為對第17條「有益而有必要的重申」就不足為奇了。

但是,「被遺忘權」並不能在所有情形中都等同於「脫離自動化決策權」。只需在谷歌案的基礎上稍微做一點延伸,就能理解「被遺忘權」的獨特之處。原告向谷歌公司行使「被遺忘權」,最終只能達至「脫離自動化決策權」的效果,這是由於搜尋引擎的特殊性質所決定的。如果希望達到被徹底遺忘的效果,原告應該一一向刊登原告個人數據的頁面所有者行使「被遺忘權」。這些被搜尋引擎直接抓取的頁面,是純粹的信息刊載或轉載方,幾乎不涉及自動化決策,只需簡單地從伺服器中刪除頁面,即可履行數據主體的被遺忘請求。這個過程雖然也涉及人工幹預,但同行使「脫離自動化決策權」有著天壤之別,是以刪除內容、移除連結作為權利行使的主要法律後果。實際上,搜尋引擎要想完全履行數據主體的被遺忘請求,除了以人工幹預的方式將數據主體從自動化決策中剔除出去之外,還需要在其伺服器中一一手動刪除相關頁面的快照,且刪除過程的工作量甚至不低於脫離過程的工作量。在上述認知的基礎上,還要強行將「被遺忘權」與「脫離自動化決策權」混同,就顯得不合時宜了。

(三)GDPR權利體系重構:回歸序言第71條

歸根結底,「獲解釋權」和「被遺忘權」各自具備深刻的內涵和外延,是與「脫離自動化決策權」截然不同的兩種權利。然而,行使這兩種權利確實在一定程度上也能讓數據主體「脫離自動化決策」,由此引發的問題是,「獲解釋權」和「被遺忘權」是否可以被反向視為「脫離自動化決策權」的被動權能和主動權能?易言之,GDPR第13至15條以及第17條,是否是第22條的兩種不同行權方式?答案無疑是否定的。

1.「獲解釋權」的補強條款:GDPR第35條

首先來看為什麼「獲解釋權」並非「脫離自動化決策權」被動權能。理論上,火力全開的「獲解釋權」,確能為「脫離自動化決策」結果的實現,提供較強助力,因為只要數據控制者或處理者不能向數據主體提供合乎情理的行為解釋,那麼數據搜集和處理將失去正當和合法性——作為程序運行「燃料」的大數據一旦斷供,自動化決策將不復存在,數據主體便自然實現「脫離」。但正如本文第一部分所指出的那樣,GDPR第13至15條只規定了數據主體的事前「獲解釋權」,數據主體在行使這種權利的時候自動化決策尚未發生,自然也就沒有「脫離自動化決策」可言。同時,出於對效用的追求,歐盟立法者具有維持弱式「獲解釋權」的激勵,不會貿然賦予數據主體全過程鏈的「獲解釋權」。

在第13至15條規則圓滿性難以為繼的情況下,毋寧以GDPR第35條數據控制者和處理者的「數據保護影響評估義務」作為其事中和事後補強:當用戶側寫可能對數據主體的權利和自由帶來高風險時,數據控制者或處理者必須在「充分考慮數據處理性質、範圍、語境和目的的基礎上」,評估自動化決策將對個人數據保護造成的影響。第35條對事中和事後算法可解釋性要求的補充體現在三個方面:其一,數據保護影響評估要求對數據處理的可能操作和計劃目的進行系統性描述,形成文字的系統性描述以數據控制者所追求的正當利益為主要內容;其二,數據控制者必須對數據的搜集和處理的必要性與相稱性進行闡述,即用戶側寫應以數據控制者的正當利益為限,未經數據主體同意不得犧牲其權利;其三,當數據主體的正當權利和數據控制者的正當利益存在此消彼長的張力時,數據控制者必須在數據保護影響評估中表明可以採取的應急性風險應對措施,包括但不限於GDPR已經規定的法律保障、安全措施和激勵機制。從條文結合可以產生的效果來看,第13至15條主要是要求數據控制者和處理者就事前數據挖掘的信息來源、典型特徵和分類辦法以及算法程序的運作機理、代碼邏輯和預期效果進行事前解釋,第35條則是要求其就事中的系統偏差、運行故障和矯正機制予以說明,這實際上只是在最低限度實現了算法可解釋性的顯化,並且由於事後解釋的要求仍然孱弱,數據主體行使「獲解釋權」最多只能得到一個看似將人工智慧載體的硬體、軟體和數據處理之間的相互作用如何導致自動化決策之間因果關係闡明的解釋。如果心懷善意,數據控制者或處理者給出的是「自以為正確的解釋」。如果別有用心,解釋和說理的方式將完全取決於擬實現的經濟或政治目標。在這個意義上,GDPR第13至15條與35條的結合,勉強構建了多重弱化但相對全面的「獲解釋權」。

2.「被遺忘權」的上位條款:GDPR第21條

上文指出,「脫離自動化決策權」並非「被遺忘權」的行權方式,因為「被遺忘權」在人工幹預之外,還包含了數據控制者刪除原始頁面、擦除特定內容以及移除相關連結的責任規定。更重要的是,「被遺忘權」的行使,不以自動化決策存在為前提。但在自動化決策已經進行的情況下,「被遺忘權」是否是「脫離自動化決策權」的主動權能呢?這一點將更難證否,因為數據主體「脫離自動化決策」意味著個人數據至少在處理的某個環節得以擦除。

要徹底回答上述問題,我們必須換個角度進行梳理。「被遺忘權」同「獲解釋權」一樣,是一種獨立的權利,兩者均在GDPR正文中進行了專門規定。略顯突兀的是,為何「被遺忘權」沒能像「獲解釋權」一樣,位列序言第71條所規定的數據主體應當受到保障的三種基本權利——獲得人類幹預的權利、表達異議和質疑的權利、獲取相關決策解釋的權利——之中呢?這也牽扯到另一個問題,如果GDPR第17條不是第22條的行權方式,那麼是否存在另一條款作為第17條的上位條款呢?「被遺忘權」是一種請求權,既可作為單獨權利,也可作為實體權利的內容,但不能脫離基礎權利而存在。在筆者看來,「被遺忘權」的權利基礎,是GDPR第21條所規定的「反對權」。從立法技術來看,如果第21條只是賦予數據主體反對數據處理或用戶側寫的權利,而不輔之以必要的反對措施的話,所謂的反對只能是紙上談兵。將第17條與第21條結合,不難看出,行使「被遺忘權」是數據主體反對數據處理或用戶側寫的有力手段。質言之,以「被遺忘權」作為手段和目的,「反對權」才有用武之地。如此,「被遺忘權」方能同GDPR序言第71條中規定的三種基本權利之一——表達異議和質疑的權利相吻合。

GDPR第17條是第21條行權方式的最直接證明,莫過於兩個條款在文義和結構上的重複。第17條第1款列舉了可以行使「被遺忘權」的6種情形:(1)個人數據對於實現其被收集或處理的相關目的不再必要;(2)數據主體撤回此前同意;(3)出於公共利益或基於官方權威進行的數據搜集和處理的壓倒性原因不復存在;(4)存在非法處理個人數據的行為;(5)數據控制者需要履行特定法律責任;(6)搜集的社會服務相關信息中包含不滿16周歲未成年人的個人數據。與之相對應的是,第21條的6個主要條款,幾乎完全是對第17條第1款中6種情形的機械重複,即數據主體可以反對數據處理和用戶側寫的6種情形。雖然,第21條還略微增加了用戶有權反對以營銷為目的的用戶側寫,以及反對用於科學發明、歷史研究、統計回歸目的卻不必要於公共利益的數據處理,但這兩種情形又同第17條第3款所規定的情形競合。總之,GDPR序言第71條中數據主體「表達異議和質疑的權利」,對應的是GDPR正文第21條所規定的「反對權」,而「反對權」則是經由第17條所規定的「被遺忘權」予以實現。

3.從「不是」到「是」:揭開「脫離自動化決策權」面紗

至此,「獲解釋權」和「被遺忘權」已經同GDPR序言第71條的兩種基本權利規整對應,序言第71條餘下的「獲得人類幹預的權利」就成為了理解「脫離自動化決策權」的關鍵所在。「獲解釋權」和「被遺忘權」都需要不同程度的「人工介入」,前者是人工對自動化決策予以合理解釋、後者是人工對過時或錯誤數據進行清理,但「人工介入」與「人類幹預」在程度和性質上都存在著諸多不同。結合三種權利之間的顯著差別,筆者認為,「脫離自動化決策權」是數據主體請求數據控制者對不公正的自動化決策結果進行人工幹預的權利,人工幹預的目的是讓數據主體脫離自動化決策錯上加錯的惡性循環。

在上述定義的基礎上,還需從以下三個方面來精確界定「脫離自動化決策權」。其一,「脫離自動化決策權」要求比「獲解釋權」和「被遺忘權」更高的人工介入程度,以幹預不公正的自動化決策為根本目的。從指向性來看,「獲解釋權」和「被遺忘權」面向過程,而「脫離自動化決策權」面向結果,這也從側面證明了為何針對算法透明度的「事後解釋」在GDPR中幾乎暫付闕如。其二,「獲解釋權」「被遺忘權」和「脫離自動化決策權」共同構成了數據主體在自動化決策的各個環節尋求保護的手段,三者之間存在層層遞進的行權訴求:當數據主體對自動化決策存有疑義時(一般是在事前),可以行使「獲解釋權」要求合理解釋。在自動化決策過程中(事中),數據主體可以行使「被遺忘權」,請求刪除不準確的個人數據。當不公正的決策結果產生外部性時(事後),數據主體方才行使「脫離自動化決策權」,消弭自動化決策的負面影響。其三,GDPR第25條規定了數據作業的基本原則——影響最小化原則和目的適當性原則,要求個人數據始終保持「精簡和鎖定」的被動狀態。在這兩個原則的約束下,GDPR第22條應結合第25條要求數據控制者在數據處理過程中「整合必要的保障措施,以符合GDPR要求保護數據主體的權利」的規定進行理解,即保障數據主體能夠行使「脫離自動化決策權」是自動化決策程序設計之初,數據控制者必須充分考慮並預留相應安排的基礎工作。

綜上所述,以序言第71條為核心展開,GDPR並非以單一、個別權利為依託,而是齊頭並進構建了充分保障數據主體利益的三權並立的聯動體系,貫穿自動化決策的事前、事中和事後全流程,實現了數據把控和程序治理的系統聯結。以筆者思路重新解讀GDPR,得到的權利體系與條文組合機理如下圖所示。

圖二 GDPR三權聯動體系組合機理

破除權利虛幻承諾:去場景化適用與法益衡量

數據主體主動置身事外的權利設計並不意味著對自動化決策的立場中立,恰是在技術發展勢不可擋的滾滾洪流中以退為進、以靜制動的高階智慧。到目前為止,我們只是將「脫離自動化決策權」作為一種應然權利進行探討,明確其內涵並沒有能夠解決「脫離自動化決策權」長期難以實施的窘境。本文第一部分指出,造成「脫離自動化決策權」長期塵封擱置的狀況,主要源於相關法條的適用門檻過高而豁免門檻過低。解決的方案是從權利的行使要件入手,反其道而行之,向上回溯不同的應用場景探討「脫離自動化決策權」的內涵和外延,向下檢視切實可行的制度框架和行權途徑,為「脫離自動化決策權」的適用奠定良好的制度基礎。

(一)去場景化適用:破除傳統人工智慧二分法

一直以來,人工智慧系統被人為劃分為「智能系統」(Automatic System,狹義的人工智慧)和「輔助系統」(Augmentation System,廣義的人工智慧),兩者的差別在於關涉數據主體切身利益的決策,是完全由自動化處理作出,還是由自然人在自動化系統的輔助下作出。DPID第15條與GDPR第22條顯然認可了上述二分法,不僅不對「輔助系統」生成的自動化決策予以限制,還一度將任何程度的人工介入都視為決策非純粹自動化處理的證據,使得基於資料庫編碼的計算機自動化和基於機器學習的算法自動化被一攬子歸於「輔助系統」的範疇,而必然屬於「智能系統」的基於神經網絡的超級自動化在短期內尚難以普及,「脫離自動化決策權」便淪為了一項「只有在未來可以行使的權利」。

對「輔助系統」的自動化決策網開一面,並非歐盟專有。2016年,美國威斯康辛州最高法院在State v. Loomis案中認可了法官藉助輔助系統進行量刑裁判的合理性與正當性,長期引領工會鬥爭之風的威斯康辛州的這一舉動,旋即激發了學界對公共治理領域自動化決策濫用的擔憂。連法官司法量刑裁判都可以借用輔助系統完成,人工智慧技術的應用是否還存在邊界?大量的研究表明,自然人極易對機器產生過度依賴,並沉醉其中。輔助系統會降低自然人的職業警惕,直至其徹底喪失批判性分析的能力。更極端的情況是,為了減少自身的思考與付出,自然人決策會自然而然地傾向於同自動化決策保持一致,原本正確的判斷最終被計算機扭轉,導致失誤疊加的「自反性悖論」。例如,算法工具根據人群聚集密度和高危人員流動軌跡推算出某一區域可能存在大量的新冠病毒無症狀感染者,從而提醒自然人監管者對該區域進行更高頻次的核酸檢測。高頻次的主動檢測必然會查出更多的感染者,又將反向刺激公共衛生部門對該區域施行更高強度的算法監管。在這個過程中,輔助系統可能存在的判斷謬誤給自然人監管者帶上了有色眼鏡,裹挾其對特定區域進行「有罪推定式調查」。

為輔助系統開脫的學者指出,自動化系統雖遠非盡善盡美,但在多數領域的出錯概率遠低於自然人。即便該觀點得到了實證研究的支持,萬無一失的自動化系統受制於自然人稟賦的情況在現實中屢見不鮮。以當下基於機器學習的算法自動化為例,機器學習模型定然具有指數級優於自然人的算力,但由於大數據的結構化處理難以自動完成,數據處理環節的人力資源上限就成為了阻礙機器學習模型發揮實力的瓶頸。在自動化決策環節,自然人與生俱來的情感偏見和價值負載,經常成為機器決策的拖累,這點在業務審計、欺詐防範、暴力衝突避免等輔助系統的應用場景中已經得到反覆證實。由此可見,恰是由於自然人介入,才使得部分原本可能滴水不漏的自動化系統紕漏頻出,就此而論,「脫離自動化決策權」的無差別適用只會更有必要,而不是相反。

在廣泛的質疑聲中,歐盟數據保護部門發布了《為實現監管目的的個人自動化決策指南》,要求利用輔助系統的自然人必須「有權力和有能力質疑自動化決策且經常表達對自動化決策的異議」。在筆者看來,強行提升自然人參與度的漏洞填補方式過於理想化,不具備操作性。一方面,鑑於自然人所固有的「工具控」本性,自動化決策過程中的自然人介入,哪怕是充分、飽和式介入,也難以真正對自動化決策形成有效鉗制;另一方面,自動化決策失靈的後果固然聳人聽聞,但部分失誤恰是由於自然人的不當介入產生,所謂的「經常表達異議」要麼在日復一日的重複決策場中流於形式,要麼將進一步擾亂自動化決策的應用規劃,造成適得其反的效果。考慮到披著輔助系統外衣的自動化決策應用已經結構性嵌入社會運營的各個方面,數據主體「脫離自動化決策權」不應再以自動化決策完全由機器做出為行權前提。亦即是說,沒有必要再對「脫離自動化決策權」進行基於資料庫編碼的計算機自動化、基於機器學習的算法自動化和基於神經網絡的超級自動化的場景劃分。不過,權利的實際意涵還是應當根據行權效果進行區辨:數據主體行使「脫離自動化決策權」,在計算機自動化場景為脫離數據採集,在算法自動化場景為脫離用戶側寫,在超級自動化場景為脫離平臺交互。三種場景的共同點是,一旦進入「脫離自動化決策」的過程,較高程度的人類幹預將覆蓋或者附議已經作出的自動化決策。

(二)有限豁免:自甘風險讓位於社會責任

審視「脫離自動化決策權」的豁免條件設計,無論是DPID第15條,還是GDPR第22條,均採用了類似早期美國產品責任領域「明示的自甘風險」的免責進路,以合同約定、當事人同意和特定法定事由作為受侵害方的行權阻卻事由,其理論依據是法經濟學家科斯在《社會成本問題》一文中有關權利的安排和界定必然影響經濟資源配置的論述。科斯指出,經濟的外部性或不效率可以通過當事人的談判得以糾正,從而實現社會效用的最大化。本來,美國的產品生產者受制於1916年聯邦法院以長臂規則取代當事人原則判例的束縛,不僅要對與之具有直接合同關係的經銷商負責,還要對任何因其產品缺陷受到傷害的消費者(及其家庭成員)和旁觀者負責。為了規避責任,生產者刻意將自己列為產品銷售合同或用戶協議的相對方,並就特定產品瑕疵和潛在風險以條款約定的方式免除自身責任。一旦消費者因產品瑕疵受到損害將生產者告上法庭,生產者可以立即以消費者知情同意或合同約定主張消費者自甘風險。在近代法經濟學理論的影響下,美國法院一開始近乎盲目地認可了當事人之間「明示自甘風險」約定的效力,甚至不在意當事人的約定是否違背了強行法的規定。

「明示的自甘風險」以受益方對虧損方的合理補償作為優於最大多數人的最大幸福的法益,在特定的歷史時期具有合理性。但在人工智慧時代,這種抑「帕累託最優」、揚「卡爾多—希克斯效率」的做法是十分危險的。因為歷史經驗表明,技術進步從未促進社會福利的雨露均沾,而是屢屢架空權力專屬原則和正當程序原則,輪番算計普羅大眾以最大限度實現監管套利。技術黑箱配合用戶知情同意,為數據控制者為所欲為大開方便之門,因特定理由搜集的多渠道信息極有可能被別出心裁地用於不可告人的目的。技術成為了少數人牟取暴利的工具,而多數人無力反抗。一言以蔽之,「知情同意原則與人們的風險認知和數據利用的客觀規律存在矛盾與衝突。」更何況,「獲解釋權」「被遺忘權」「脫離自動化決策權」之間本存在「層層遞進的行權訴求」,以合同約定和當事人同意作為「脫離自動化決策權」的豁免事由,無異於直接剝奪了本就身處信息弱勢地位的數據主體最有力的救濟手段,徹底讓數據主體與自動化世界的每一次聯結都變為自甘風險。數據主體對合同和協議的不感冒早已成為業內心照不宣的秘密——關涉自身重大利益的條款,數據主體未必看、看了未必懂、懂了也未必有能力進行反駁,部分自動化決策服務動輒對應著成百上千頁的《用戶須知》,某些銀行的人工智慧投資顧問服務甚至要求客戶對著屏幕朗讀經過巧妙包裝的特定免責條款並對客戶進行錄像。

實際上,從20世紀60年代開始,美國法院就已經開始對產品責任領域明示的自甘風險實踐進行糾偏。伴隨著風起雲湧的民權運動,美國產品責任法從疏忽責任和擔保責任逐漸轉變為嚴格責任,以無過錯責任的追責框架將產品產銷各個環節的相關人員都納入其中,自甘風險規則只在破除產品嚴格責任的極少例外情形中得以適用。本質上,自動化決策可以被看作是數據控制者向數據主體提供的一種服務,是聚合數據的一方通過人力、物力、資源和環境所組成的結構系統來銷售和實際生產及交付的、能被提供數據的另一方購買和實際接收或消費的產品,是以非實物形式存在的勞動成果。問題是,若不加區辨地對此類特殊產品或服務的生產者,即數據控制者或處理者,套上嚴格責任的枷鎖,將必然阻礙科技創新的步伐。數據是現今最重要的生產要素已經成為世界共識,各國為爭奪人工智慧技術制高點可謂不遺餘力,不宜將過高的履責成本強加於肩負更高使命的科技類企業。相比起成本過高的嚴格責任,過錯責任能夠更好地平衡個體保護和科技創新的利益衝突——在避免責任缺位的同時鼓勵技術發展。筆者認為,衡量數據控制者有無過錯的審查標準有二。其一,數據控制者是否通過持續的信息披露反覆對數據主體作出真實、準確、完整的「風險提示」。數據控制者在信息披露中應對自動化決策可能對數據主體造成的潛在傷害列出清單,對於清單之外的妨害行為不得以自甘風險為由阻卻數據主體行使「脫離自動化決策權」。其二,數據的採集和處理是否被用於經過數據主體同意的正當、唯一目的。為使判定標準進一步明晰,還應當通過專門立法的方式,構建企業數據利用與分享準則,對相對敏感的隱私信息採取加密儲存、吞吐限制、訪問分級等安全措施。違背相關規定的數據使用行為,將不得享有「脫離自動化決策權」的豁免。

同樣有必要關注的是,近年來,公共衛生突發事件頻發,以行政手段促進社會共律對社會個體普遍自律不足的必要補充無可厚非,但要時刻警惕由此可能對用戶隱私和個人生活帶來的變本加厲的騷擾。據報導,杭州擬推出「漸變色」健康碼,通過整合電子病歷、體檢信息甚至生活習慣等個人數據,建立個人健康指標評價體系。不僅如此,杭州健康碼應用還打算將樓道、社區和企業的群體評價體系納入自動化決策範圍,打造全知全悉的健康生態服務圈。從健康碼向「萬能碼」之拔擢,仁者見仁、智者見智。單就數據主體在此類場景中是否享有「脫離自動化決策權」,筆者認為,這將取決於以提升公共治理為目的的自動化決策,是否同時為實現公共利益所必須。一般來說,個人數據經過結構化改造後在社會運營網絡中流通,便擺脫個人掌控範圍成為公共資料庫的有機組成部分,對任何自動化決策的脫離都將「牽一髮而動全身」。從信息的流動角度來看,如果毫無保留地允許數據主體享有對其數據的絕對權利,無疑將侵蝕公共治理領域自動化決策的全面性和公正性,破壞國家治理體系現代化的完整生態。因此,在涉及公共利益的自動化決策場景中,「脫離自動化決策權」的適用只能是例外而非一般原則。此種認知同GDPR第23條所囊括的限制情形相符:「出於國家安全、國防、公共安全和公共利益等考量,歐盟各成員國可以通過立法手段限制第12至22條、34條以及第5條所規定的責任與權利範圍。」GDPR第89條也對此作出了相應規定:「因為公共利益、科學或歷史研究或統計目的而進一步處理數據…可以對數據主體的防護措施和權利進行克減。」總之,公共利益與個人利益總是存在此消彼長的張力,這是立法者長期努力調和卻難以平息的固有矛盾,公共衛生領域尤其如此。但倘若能在變動不居的法益環境中,因時制宜做出彰顯社會整體價值的倫理判斷,那便是以看得見的方式實現了以個人健康促進社會健康的最大正義。

(三)超越GDPR:保護人類自主性的額外可能

在「獲解釋權」和「被遺忘權」的基礎上層層遞進,以更高程度的人類幹預取代較低程度的人工介入,GDPR界定了數據主體在請求獲得解釋、表達異議和反對之外可以暫時請求脫離自動化決策的權利,並與其他兩種基本權利一道構成了保護數據主體權益的、三權並立的聯動體系。上述探討,一直未跳出DPID與GDPR為「脫離自動化決策權」框定的籬藩,此等認知限制勢必帶來法律移植方面的困難,因為獨立於原框架的「脫離自動化決策權」將再次面臨內涵的不穩定性和外延的模糊性。

阿芬那留斯指出,人們慣於在經驗中「攝取」思想、感情和意志,導致經驗分裂為外在和內在,並被迫對其作主體和客體的劃分,造成的結果是「『實在』被顛倒黑白。」以消除「攝取」為要領,公共治理領域的學者們試圖尋求應對自動化決策的「純粹經驗」,由此生發出數據主體所應當具有的「實在權利」。這些「實在權利」有著顯著詹姆斯「實用主義」的特徵,剔除一切被概念思維加工的權利屬性,把邏輯的一致性和證實包括在實際的功利觀念之中,或多或少還原了「脫離自動化決策權」的「清淨」和「原初」狀態。

回歸行政法的「自然正義觀」,英國學者提出了「陳情權」的概念,主張保障因某項決策致使自身權益受損的個體享有獲得公平聆訊以及請求行政複議的權利。儘管人工智慧模擬人類情感的能力與日俱增,但短期內仍然無法像自然人一樣表達出有溫度的憐憫、同情和關愛。行使陳情權的目的,是迫使政策制定者以「同為自然人」的立場對被決策者的實際遭遇感同身受,憑藉其制定出更人性化的政策和法律。在自動化決策領域,美國一直是陳情權的踐行者,經常通過聽證會的方式對自動化決策失靈予以糾正,讓受害者徹底「脫離自動化決策」。例如,2018年1月,在缺乏科學論證的基礎上,美國紐約州率先利用預警保護系統來鑑別具有嚴重家暴傾向的父母,並對高危兒童進行隔離保護。該系統不僅沒有大幅降低虐童事件的發生概率,還造成了上萬正常父母同其子女的被迫分離,上線不到半年就引發眾怒。在數次聽證會後,當局撤銷了此前的自動化決策,並放棄了預警保護系統的使用。2019年4月,一場針對密西根州政府利用人工智慧技術審查社會救濟申請的聽證會,引發了逾四萬居民對州政府的集體訴訟。據悉,用於反欺詐的米達斯系統出錯率高達93%,致使數萬低保申請者被無端懲戒。集體訴訟一旦獲勝,全體密西根居民將徹底脫離米達斯系統的自動化決策,而密西根州政府將陷入「破產」的境地。

因此,陳情權雖然能夠取得較好的「脫離自動化決策」的效果,但行使該權利必然伴隨極高的法律成本,且需以成熟的集體訴訟等制度作為配套,有為求正義矯枉過正之嫌。波斯納指出:「法律並沒有試圖在最高程度上實施任何道德準則……全部承諾的法律實施成本會超過其收益。」可以想像,一旦陳情權的實施成本超過社會所能承受的臨界值,行使該權利將失去原本的正當性,因為維護一種正義不應以犧牲另一種正義作為代價。更有可能的情況是,在實施成本逼近臨界值之前,陳情權的行使就已經自然出現了傳播邊際效用急速遞減的情況。我們身處一個信息爆炸的時代,信息增量無限而注意力極為有限,人們經常出現上一分鐘還在為某個新聞義憤填膺、這一分鐘就已經為某條信息拍手叫好、下一分鐘再因某篇軟文淚流滿面的渙散狀態。面對人工智慧迅猛發展,人們的心理狀態也必然會在「日居月諸,胡迭而微」中從一開始的毛骨悚然逐漸過渡至視若無睹乃至最終安之若素。信息傳播的規律表明,只有第一個、第二個受害者的陳情能夠引發較大的公眾關注,此後相同受害者的再次陳情非但效果將指數級遞減,甚至還會因為反覆陳情引發受眾內心嫌惡的負面效果,就像一句流行歌詞中所表達的那樣:「誰會不厭其煩地安慰那無知的少年?」

公共治理領域的學者還指出,資訊類的自動化決策進一步將人們本來就已相當渙散的注意力徹底碎片化,預測算法和偏好算法更是以「個性化定製」之名試圖操縱人們的注意力。弗瑞施曼和塞林格在《重塑人性》一書中指出,如果人類想要在21世紀繼續保持代理權和自主意識,就需要在法律層面承認「離線權(the right to be off)」。所謂「離線權」,顧名思義,即脫離強加於自身的自動化決策正常生活的權利,和「脫離自動化決策權」有異曲同工之妙。弗瑞施曼和塞林格並沒有為離線權指明清晰的行權路徑,離線權因此被部分學者從實操層面解讀為「注意力保護權」,即脫離自動化內容推送和營銷類用戶側寫的權利。範圍限縮的解讀方式雖然極大地束縛了離線權本來的綜合意涵,但就其為普羅大眾所灌輸的拒絕被輕易掠奪數據紅利的法治觀念和自我保護意識而言,意義不可小覷。

自動化決策裹挾著人們自然而然地接受構建於一個個信息繭房之上的「後自主社會」,並以半將就、半威脅的方式推動人們步入「後真相時代」,亞馬遜公司前首席科學家維真德在《數據為民》一書的開頭給出了一個重要的前提認知:「時間已經認識到,隱私和自主不過是一種錯覺。」有鑑於此,陳情權也好、離線權也罷,任何一種進路只要能夠實現「脫離自動化決策」的效果——哪怕是片刻脫離、部分脫離——也能讓面對自動化決策霸凌早已退無可退的人類有固可守,有險可依。從這一點來看,未來數據控制者所需要履行的,恐怕不是一星半點的社會責任那麼簡單。

結 語

「人生而自由,卻無往不在枷鎖之中」。針對自動化決策的法律應對重點在於,警惕打著促進自由幌子的技術工具,被用來生成更多難以掙脫的枷鎖。馬克思指出,法律乃強權意志的實證主義法學認知僅道出了部分真相,法律既是人類理性所理解的道德準則的表達,也是根植於社會共同體的歷史價值和規範的習慣的派生物。歐盟立法的經驗和教訓表明,多權並立的聯動體系不一定能夠確保個人意志可以獨立、自主地依據普遍承認的法則和習慣同他人的意志相協調,反而可能會因為部分不那麼重要的權利對另一些真正重要的權利的遮蔽和掣肘,阻礙實質公正與有效救濟的兌現。在人工智慧領域,各國立法者創造出了過多的於事無補的完型與範式,來與廣為人知的毫無意義的知情同意這一比喻相配。技術膨脹出的權力越是絕對,人類的尊嚴就越受到威脅。「獲解釋權」和「被遺忘權」至多只能爭取到侷促的看似自主和有限自由,而只有在決定自身利益的關鍵事務上享有積極參與的權利,人類才有可能維持和延續在知識、經驗和道德上的卓越。在這個意義上,「脫離自動化決策權」實乃關係人類共同命運的最後一道屏障。

「法者,治之端也」。回到開頭的例子,如果健康碼對個人的風險等級判定有誤,致使持碼人通行受阻,持碼人撥打12345發起糾錯申請,即可視為「脫離自動化決策權」。此時,縣級防控指揮部既非簡單地對持碼人進行解釋或心理疏導(讓其接受錯誤的結果)、也非直接擦除或更正個人數據(對決策結果在所不問),而是通過自動化決策求得的結果進行反向檢視,找到出現差錯的環節,並對錯誤結果進行系列糾偏。如果沒有環節出現差錯,縣級防控指揮部也應對判定結果進行自然人審查,並重新形成判定結果。當然,這是高度理想化的情況,但也反映出在自動化決策逐步成為國家治理體系和治理能力現代化重要組成部分的必然趨勢下,我國未來《個人信息保護法》中引入「脫離自動化決策權」的必要性。民法典人格權編對個人信息處理確立了合法、正當、必要和不過度的原則,對信息處理者採取技術措施和其他必要措施保障信息主體權益的各項要求和規定,為「脫離自動化決策權」不再只是一種虛幻承諾預留了空間。下一步工作是透過解釋或針對典型性事件的具體化,將既存規則和立法顧慮之間的可能衝突加以澄清,發展出切實可行、同時又具備彈性的行權路徑,讓「脫離自動化決策權」成為我國人工智慧領域良法推進善治、將制度優勢轉化為國家治理效能的人權保障。

微博抽獎

接下來我們將送出中國知網數據查詢卡6份(面值200元/份),快來試試手氣吧。

可使用範圍涵蓋國際會議全文資料庫(IPCD)、中國重要會議論文全文資料庫(CPCD)、中國學術期刊網絡出版總庫(CAJD)、中國博士學位論文全文資料庫(CDFD)等。

獲獎的讀者朋友,我們將通過上海市法學會官方微博告知卡號、密碼,在中國知網首頁完成帳號註冊,輸入卡號、密碼及網頁驗證碼,即可將對應卡面值充入該帳號。

請各位讀者朋友關註上海市法學會官方微博,參與本次微博抽獎贈卡活動,#微博學法律#,#分享有好運#!

打開微博

掃描右側

二維碼

參與抽獎

上海市法學會歡迎您的投稿

fxhgzh@vip.163.com

相關連結

來源:《東方法學》2020年第6期(總第78期)。轉引轉載請註明出處。

原標題:《唐林垚:「脫離算法自動化決策權」的虛幻承諾》

閱讀原文

相關焦點

  • 張凌寒:算法自動化決策與行政正當程序制度的衝突與調和
    如前所述,算法增強行政活動中收集、處理和輸出信息的各個環節,從兩方面改變了行政活動的傳統範式:其一,反應型算法自動化決策壓縮行政活動各環節,直接實現行政活動的半自動化與自動化。自動化行政在系統內部瞬間完成,無法分離活動的程序、步驟和方式,而是將所有信息與內容糅雜進既定的算法之中得出結果。其二,預測型算法改變傳統認知範式,根據過去的歷史數據推斷出未來的趨勢。
  • (全文收藏)電能路由器設計自動化綜述:設計流程架構和遺傳算法
    在尋優算法上,同樣用計算機取代人工,或尋找在收斂能力和搜索能力上達到性能較高的算法,提高全局尋優能力和自動化水平。最後,軟體實現提供了實用的設計軟體工具,對外實現用戶交互,對內完成設計流程自動化調度。電能路由器設計問題性質與之相似,使用遺傳算法作為尋優算法效果可期。本文介紹了當前電力電子設計自動化研究現狀,總結了設計自動化研究的基本內容。進一步針對遺傳算法進行了詳細介紹,包括其技術起源、發展和應用,特別地,提出遺傳算法應用於電能路由器設計的處理方法及改進方向。最後展望了電能路由器設計自動化中的研究難點和挑戰。
  • 江溯:自動化決策、刑事司法與算法規制 ——由盧米斯案引發的思考
    算法在幫助法官裁判的同時,也反映出許多問題。人們注意到,算法在很多時候對個人產生了實質性影響,但其自動化的決策過程卻並不是公開的,它也不接受質詢、不提供解釋和救濟。相對人無從知曉決策的原因,更無法要求撤銷或修正自動化決策的結果。即使自動化決策侵害了相對人的利益,相對人也無法要求算法開發者或使用者承擔相應的責任。這種狀態也被學者稱為「算法暴政」。
  • 區塊鏈技術的算法規制
    二、區塊鏈算法的決策自動化作為一種計算機技術,區塊鏈之所以能夠去中心化,一方面是其獨有的算法機制使得所有參與者集體協作,保證了信息的共享性與真實性;另一方面系統的運行必須脫離任何人或者機構的控制,才能保障信息的客觀真實、全網一致與不可篡改。區塊鏈算法既是決策自動化的體現,也決策自動化的執行機制。
  • 數據中心自動化與網絡可視性的作用
    事實上,推動自動化的目的是響應更廣泛、更複雜的網絡,並減少網絡管理人員。數據中心自動化通過為任何一組常規網絡管理流程或程序添加一定程度的自動化而提高效率。它採用了從腳本到網絡虛擬化和軟體定義網絡的技術,但它本身並不是一種技術,必須有人來確定自動化的關鍵領域,並確定在每種獨特情況下使用的最佳技術。
  • 論算法的法律規制
    2020年引起社會廣泛關注的外賣算法系統,一些網際網路平臺利用算法設置外賣騎手的配送時間,送餐時間被壓縮得越來越短,對外賣騎手的生命健康造成嚴重威脅。而且,這個算法系統採用自動化的機器決策,騎手很難理解和提出抗議。從法律的角度看,算法從幾個方面挑戰了法律的一些基本原則。首先,算法黑箱可能挑戰人類決策的知情權與自主決策。
  • 虛幻引擎5和AI將如何改變3D製作?看看大佬怎麼說的
    AI算法的重要性,虛幻5等實時渲染引擎的核心技術到底會給3D製作帶來怎樣的影響,3D製作的未來該何去何從?哪些步驟將被自動化?我們會更多地依賴AI技術和機器學習嗎?藝術家們如何看待開源工具及其未來的潛力?另一個關鍵的問題是會否有像虛幻引擎這樣能一體化包含製作所需的工具且免費的解決方案呢?看看這些藝術家們的討論吧! 01,Inka Sipola,芬蘭,環境藝術家
  • 虛幻引擎5和AI的出現將給未來帶來哪些變化?看看藝術家們怎麼說
    AI算法的重要性,虛幻5等實時渲染引擎的核心技術到底會給3D製作帶來怎樣的影響,3D製作的未來該何去何從?哪些步驟將被自動化?我們會更多地依賴AI技術和機器學習嗎?藝術家們如何看待開源工具及其未來的潛力?另一個關鍵的問題是會否有像虛幻引擎這樣能一體化包含製作所需的工具且免費的解決方案呢?看看這些藝術家們的討論吧!01,Inka Sipola,芬蘭,環境藝術家
  • 機械設計製造及自動化專業是不是已經脫離時代了?
    ;從上面的劃分你可以看到,工業1.0走了100年,工業2.0走了90年,工業3.0走了60年,工業4.0肯定會更短,而我們國家的工業3.0應該是從2012年開始大規模發展的,作為一個當局的從業者,我對中國的自動化有著最直接的感受。
  • 真正的高手,都是「反算法型」的人!
    算法的本質是「大數據」。之前,我們說大數據是未來的石油。而現在我們發現大數據正在試圖掌控人類。  這個世界正在被算法一點點吞噬,人們和「算法」的鬥爭,才是一場是決定人類前途和命運的戰鬥。    1  什麼是算法呢?
  • 電通數碼,掌舵「自動化」方舟揚帆遠航
    電通數碼電通數碼新發展離不開自動化電通數碼認為目前更需要強調自動化,即RoboticProcess Automation(RPA,機器人流程自動化)。自動化或成廣告行業專業化標準中國廣告市場的發展前景及複雜性、特殊性,給電通數碼以及中國廣告業帶來了無窮無盡的實操。未來十年,相信中國廣告業仍會持續捕捉這些美好的機遇,只是在目前嚴峻的經濟形勢下,在實操中的轉型改變將成為成功捕捉機遇的新能力。電通數碼認為這些新能力都將會和AI、自動化的實踐方面息息相關。
  • 算法歧視法律規制的路徑探析
    在人工智慧背景下,算法就像一把雙刃劍,人們的身份和行為數據被廣泛收集,其健康狀況、需求偏好、消費能力、發展潛力等特徵皆被算法使用者掌控,算法通過精確識別各類社會主體的身份,區別化地將人們束縛在自身的數據繭房之中,在為人們生活帶來便利的同時,也加劇了原先社會中存在的各類鴻溝。
  • 從自動化到智能化
    自動化:  本質是感知、決策和執行的統一  自動化的理論基礎是控制論。控制論誕生時,控制論之父維納思考了這樣一個問題:機器和人(動物)到底有什麼區別?  智能化:  管理與控制的深度融合  GE(通用電氣公司)工業網際網路白皮書指出,工業網際網路有3個要素:智能的機器、高級算法和工作中的人。其中,智能機器就是能夠接收數位化指令並發送相關狀態的設備或者傳感器,是數據的源頭。
  • 給AI系統做「安全體檢」,阿里安全提出自動化AI對抗平臺CAA | AAAI...
    自動化搜索技術合成多個攻擊算法的組合 阿里安全圖靈實驗室整理歸納了學界針對AI模型提出的32種攻擊方法,以此為基礎搭建了一個自動化對抗攻擊平臺CAA。 橫向對比業界的其他工具箱,圖靈實驗室的自動化對抗攻擊平臺首度實現對抗攻擊的「工具化」。
  • 各廠商口罩機自動化解決方案|伺服|ethercat|plc|口罩機|自動化
    西門子的解決方案正在支持中國製造業在這場疫情中迅速升級轉型,將電氣化、自動化、數位化的力量融入這場疫情狙擊戰中,以前所未見的高度、速度、精度和深度,讓多數傳統製造業窺見自動化的一角。在緊急戰役中,施耐德電氣開啟綠色通道,為多家自動化設備公司提供全套解決方案和莫迪康M241PLC、GXU觸控螢幕、LXM28伺服驅動器等高性能產品。三菱高性能自動化產品,助力口罩機生產三菱電機PLC、變頻器、伺服系統、HMI、CC-Link網絡等自動化產品性能優越,在口罩機中廣泛應用,打造出超高速自動化口罩生產線。
  • 一種增強定製產品機器人組裝的算法
    為了解決這個問題,德國航空航天中心(DLR)的研究人員最近開發了一種算法,該算法可以將過去組裝產品時機器人獲取的知識轉移到新產品的組裝中。該算法在IEEE機器人與自動化快報上發表的一篇論文中提出,可以最終減少組裝計劃者提出用於製造新的定製產品的動作序列所需的時間。
  • 戰疫兵器譜之自動化智能雲倉服務商—閃電倉
    今日出場兵器閃電倉:通過研發自動化調度系統和算法管理系統的能力部署大量機器人及自動化設備取代傳統勞動力密集型倉庫的訂單處理。兵器應用戰場自動化信息系統,自動化調度和控制系統,機器人分揀,自動化分撥系統在無人狀態下運轉,確保第一時間將貨物從倉庫分揀發出。
  • 虛幻4還能戰鬥 Epic宣布該引擎現已支持次世代主機!
    虛幻4作為一款熱門開源引擎受到了很多獨立遊戲開發者的喜愛,並且比起unity它能夠賦予遊戲更好的畫面。事實上就連很多3A大作也是使用的虛幻4引擎,比如最近發售的《最終幻想7:重製版》。
  • ...媒體算法解析:Facebook、YouTube、Twitter如何利用算法推薦內容?
    此外,業內還出現了一種「算法可能會引起信息極化和偏差」的說法。因此,了解算法並了解算法何時發揮作用,這一點很重要。算法的重要性還體現在哈佛商學院的一項研究中,研究發現人們更有可能遵循來自算法的建議,而不是人的建議。這正是本文誕生的原因之一。本文提供了一種指導方法——當算法控制了你的閱讀時,你該如何思考。
  • 老虎證券:便利蜂如何用算法革命711們?
    「便利店的長期價值,在於用算法來優化和覆蓋營運中的一切」。在近期參與高瓴資本張磊的一次關於長期價值的直播對話中,便利蜂創始人莊辰超說了這段話。莊辰超,更為人所知的身份,是去哪兒網的聯合創始人、CEO。2015年,攜程併購去哪兒後,莊辰超出走。2016年,成立便利蜂。便利蜂品牌,走過不少彎路。比如做共享單車、無人貨架,都失敗了。只有便利店項目,勢頭正勁。