數據隱私保護的公共議題:從GDPR到技術倫理思辨

2020-12-23 商業覺醒大學

來源:底層設計師

作者:劉志毅,數字經濟學家、商湯智能產業研究院主任

在眾多近期關於數據隱私保護引發的討論中,甚少見到關於數據隱私保護的基本邏輯的底層討論,更多的是關於「數據隱私」的重要性和對於數據濫用危險性的擔憂。因此,大多數討論都停留於公共議題的喧譁之聲和對於科技倫理的表面討論。

事實上,這個議題背後涉及了兩個根本性問題:第一,是數據價值在整個智能時代作為生產要素的實質,即通過數據挖掘以後的數據是如何使用的,以及如何作為新的知識產生的範式是如何對現實世界產生影響的。第二,現存的數據隱私保護的理念的核心目的是什麼,以及怎麼認識數據背後技術與人之間的關係?

須知,我們現在的擔憂在20世紀八十年代的歐洲學術界就有相關討論,經歷那麼多年時間後關於這方面的討論,早已不是停留在數據安全和基礎倫理的層面,很遺憾的是我們對此知之甚少。本文就試圖從數據隱私保護背後的基本邏輯和認知論層面的挑戰進行討論。

嵌入技術設計的倫理價值觀

關於數據隱私與安全的保護研究很多,但討論其實質,包括對個人權利和自由的侵犯,自動化決策算法帶來不平等的政治經濟學主張,以及相關文件中包含的機器對人類進行控制和影響的相關內容並不多。

早在1890年,美國人沃倫和布蘭代斯就指出了隱私權的問題,認為新的發明和商業手段引發了風險,人們需要採取措施保障人格權,即「不打擾」的權利,認為「我們的法律是否在方方面面承認並保護隱私權,這一定會迅速成為法庭將要考慮的問題」。

2006年,歐文·舍米林斯基明確指出要重新審視布蘭代斯的隱私權,認為應該進一步設定關於深挖個人信息的法律責任。而隱私權的出現則正在改變人-技術與世界的關係,帶來了新的視角。

可以認為,人通過技術與世界關聯產生了對人類世界新的詮釋,而數據隱私權試圖對這種詮釋的範疇進行重新定義。

我們今天討論的所有相關文件都可以從這個角度去入手,即數據隱私是可以看作成一種試圖將解釋世界權利的方式和權利回歸到個體還是給到機構(商業組織、政府或者國家)的選擇,而不只是停留在個人權利的被侵犯層面,個體權利需要通過數據權利的實現得到延伸而非剝奪,社會的公平正義可以通過數據權利得到延伸而非放大歧視或者偏見,這是我們的立足點。

討論數據隱私保護相關的議題,《通用數據隱私保護條例》(GDPR, General Data Protection Regulation)是必須關注到的文件。這份文件在2016年4月通過,在2018年5月25日生效。

事實上,這份文件是在《數據隱私保護指令》(Data Protection Directive)文件的基礎上生成的,後者是1995年通過的歐洲聯盟指令,用於規範歐盟範圍內處理個人數據的行為,是歐盟隱私法和人權法的重要組成部分。

先看《數據隱私保護指令》這份文件,在歐盟《數據隱私保護指令》中第15條是非常特殊的,它賦予了自然人一項有條件的權利,認為自然人可以不受到基於自動化分析生成的決策的影響。

因此要求自動化的決策(也就是算法決策),必須要首先得到充分的評估後才能使用,且自然人擁有了解這些基於自動化分析生成的決策所涉及的邏輯的權利。

這個條款的精髓在歐盟發布的《通用數據隱私保護條例》中也得到了繼承,在新的條例的第22條中不僅規定了類似權利的落實,還補充了對從事自動化決策的數據控制人增加新的信息披露業務的要求,認為所有的算法提供商和數據使用權利放,從一開始就需要在數據隱私保護和程序設計方面滿足合規性,其核心目標在於「確保在信息系統開發的整個生命周期中切實考慮利益相關者的隱私保護和權益保護」。

從這一點可以看到,歐盟的數據治理思路相對於20年之前的變化。如果說《數據隱私保護指令》是一個從數據隱私保護出發,對機器自動化決策進行治理的規範文件,《通用數據隱私保護條例》的立法目的並不是關注機器的使用,而是要徹底通過權利的賦予方式來重塑人和機器的關係,這也是數據隱私相關問題的實質,即我們建立一種怎樣的符合人類社會發展需要的人機互動關係。

《數據隱私保護治理》以及法國在1978年所頒布的《數據處理、文件和個人自由法案》都源於對機器決定論引發的人類社會發展的擔憂,因此更多的是一種消極治理的思路(後者對所有自動數據處理的司法、行政或個人決定都一概禁止)。

可以說,它們的基本邏輯是一種保守主義思想的體現,即確保人類維持對自身造成重大影響的決策的重大控制並為之負責。

因此《數據隱私保護指令》將某種類型的決策行為作為制約要點而並不是數據的處理方式放在嚴格的質量控制之下,這很類似我們在法學中所強調的「自然正義觀」。

我們再來看以數據隱私保護聞名的《通用數據隱私保護條例》,與數據隱私相關且繼承了第15條的是第22條,我們對這個條款的主體內容進行分析來看數據隱私保護的實質。其條款規定「數據主體有權反對此類決策:完全依靠自動化處理——包括用戶畫像——對數據主體做出具有法律影響或者類似嚴重影響的決策」,除非滿足以下條件:

決策對於數據主體與數據控制者的合同籤訂或合同履行是必要的。

當決策時歐盟或成員國的法律所授權的,控制者是決策的主體,並且已經制定了恰當的措施保障數據主體的權利、自由和正當權利。

當決策建立在數據主體的明確同意基礎之上。

可以看到,這個條款的規定與《數據隱私保護指令》的內核思想一脈相承,不僅對機器錯誤和算法歧視帶來的社會不公平和偏見懷有很大的擔憂,還直接將用戶畫像(或者叫自動化側寫技術)作為命題進行定義和分析。

但我們要看到的不僅是保守的一面,還要看到相關條例中所涉及的關於權利進路的思維,即相關條例承認一個顯示就是自動化算法已經廣泛用於私營部門和政府部門,而相關的應用是可以帶來有益於社會的正向福利的。

相關的法條通過規定當事人同意、法律授權和合同約定等方式為自動化決策和數據安全提供了實際的路徑(雖然很多方面的討論尚未完善)。

更進一步,在《通用數據條例》中提出了數據最小化原則和適當性原則,第25條規定了控制者有責任採取適當的技術與組織措施,以保障在默認情況下,只有某個特定處理目的所必要的個人數據被處理,這種責任適用於收集的個人數據的數量、處理的限度,儲存的期限以及可訪問性。

換言之,個人數據應該保持「精簡和鎖定」的狀態。這與《數據隱私保護指令》中僅僅強調數據信息安全不一樣,強調的是從軟體或硬體設計到業務策略和商業實踐整個鏈條的原則適用性。

具體到數據隱私問題,第25條背後展現出來的數據倫理考慮的核心思想,就是以增強隱私數據隱私保護技術為基礎,將保護隱私的理念設計到相應的軟體系統中。

換句話說,就是將人類的倫理價值觀嵌入到技術設計的過程之中,這也是我認為未來解決數據隱私和倫理問題的核心,即將行為的正義性和倫理道德的合理性通過技術來嵌入,而不是僅僅通過保守的數據隱私保護的方式去解決。

事實上,這樣的思想逐漸正成為AI倫理或者數據倫理研究的重要路徑,無論是雷登伯格提倡的「信息法制(Lex Informatica)」,還是希爾德布蘭特和庫普斯所提倡的「環境性法律(Ambient Law)」,都涉及到了相應理念,認為跨學科的技術應用的方式能夠比傳統法律更好地塑造人類社會與人類行為。

數字世界運行邏輯的認知重構

理解這一點後,我們認為數據隱私保護和算法決策等問題的核心在於,是否我們可以通過程序設計的範式來實現人類權利的保護,以及相應倫理道德價值觀在技術層面的落實。

當然,我們可以預言到相應的阻礙到底有多大,包括法律語言的措辭和語法無法轉換、複雜晦澀的法律權利和義務的範圍難以說清以及交叉數據隱私保護和算法透明性等問題。

但這條路徑在科技向前發展的情況下,幾乎是唯一可以實現權利保護和社會發展平衡的路徑,與其陷入無休止的倫理道德爭端,不如考慮技術路徑如何實現這樣的複雜系統。

更進一步說,數據分布在社會的各個領域,從個人生活到公共服務領域,再到國家、政府的治理以及決策等環節,數據的使用也非常普遍。

微觀層面的個體都是數據的攜帶者、生產者和使用者;中觀層面看,對數據的挖掘和使用就是智能化算法最主要的工作,也是AI能夠對金融、零售、醫療等行業進行賦能的原因。宏觀層面來看,涉及國際政治、軍事和經濟都會使用到不同的數據。

可以看到,在數據生產和被算法使用的過程中,兩個過程是同時進行的:一方面,算法將自然界中的事物進行數據化,即人類存在的實體世界轉換成了新的樣式;另一方面,數據的產生形成了新的自然界,與現實的世界進行深度互動。

正如斯蒂格勒所說,虛擬實境的各種代具都是由「顯像銀幕眼鏡」和「資料庫手套」組成的,眼鏡中呈現的虛擬空間要麼根本不存在,而只是從其整體物理特徵上模擬出來;要麼存在於別處,但在眼鏡與手套使用者的真實所在地被虛擬複製出來。

我們正處於真實世界和數據世界疊加的狀態中,數據隱私的問題從根本上來說並非只是一個單獨權利的保護,而是對數字世界運行邏輯的認知重構。

這帶來的是數據作為生產要素的特殊性,它改變了既有世界的本體論、認知論與倫理價值觀:從存在論的角度看,人類存在其中的世界已經產生了數據這種新的要素,以及智能化機器這樣非自然生成物,因此一種新的存在環境被生成。

具體來說,存在的軌跡以數據的方式呈現,從技術哲學的角度來說,數據帶來了「在場性」的變化,即通過數據化的技術讓人的在場性被拓展,使得透明性退場。

例如通過圖像識別技術重現人們的運動軌跡和時間序列,或者通過對商場的數據挖掘使得人們的行為能夠被引導。

這樣的方式改變了人們的行為邏輯,也是數據要素最重要的價值;從認知論的維度來看,人類面向的世界不再是人改造自然的簡單關係,而是生成了新的物種和要素,感知世界的方式和自我認同的方式也在改變。

算法可以通過數據的調節,來調整數據自然裡的出場次序和顯現的影像。例如,臉書通過算法的改變,對自身的首頁內容進行不同推薦,這樣的結果不僅是商業層面的,也是認知層面的,這才帶來了後續跟劍橋分析公司的醜聞;相應的,這也就帶來了數據倫理視域的視角變化,即從人、技術與自然世界的關係來重構我們的倫理觀念。

最近發生的一系列關於數據隱私的新聞事件,加深了個體對隱私問題隱私的擔憂,同時依賴人口紅利的網際網路經濟和基於機器學的決策系統的複雜和不透明則加深了這一擔憂。如何發揮好相應監管條例的前提條件變得苛刻起來。

這裡不得不強調一個事實,就是不管是算法還是監管措施都在指向算法「透明度」,事實上,對於現有以深度學習為基礎的人工智慧算法來說是幾乎不可行的,相應的研究和立法試圖創造這樣的不可行的也不符合用戶需求的透明形式的權利,其結果是非常危險和毫無意義的。

透明度的權利並不一定能夠確保實質性的競爭或者有效的補助措施,更多是在感官上給大眾一種監管有所作為的體現,而並沒有考慮事實上的技術和應用情境。

相對應的,《通用數據隱私保護條例》只是在原則層面提供了「公平和透明地處理個人數據」的說法,這樣為數據隱私保護法律提供了一個比較開放和靈活的尺度,去衡量數據隱私問題的影響並讓算法決策系統承擔責任。

除此之外,條例中的其它條款更具備可操作性,包括數據隱私保護影響評估、數據可移植性、數據認證和數據刪除等。

換言之,我們可以根據實操的可行性和原則的方向,引入更多可以實施的權利方向進行討論(例如「合理推斷權」等),而不是坐等一個完善的條例出現或者毫無實操意義的指導建議成為討論的熱點。

總結下,我們對數據隱私和算法決策的倫理進行了解讀,即在於我們採納了一種行為主義導向的方式去看待數據隱私。

一方面,我們承認個人數據權利的重要性和相應監管機制建立的必要性。另一方面,我們也要減少一刀切的「規範性斷聯」以及「監管過度延伸」的情況出現。

隱私保護不是不作為的藉口,而是尋求算法規制的起點,我們要保護的是數據在成為算法決策依據後的公平和正義。

換言之,我們承認技術與倫理的雙向調節作用:一方面,我們認為技術通過對物質環境的改造構成自由,在這種物質環境中存在著數據這一特殊要素,人類正在認知這樣的數據世界並形成新的倫理範式。

另一方面,技術與人類正在形成特殊的連接,這種連接讓人們對技術的發展積極看待的同時報以警惕的心態,同時也在利用技術調節來為人類社會的道德發展制定新的規則和創新的詮釋空間,即將非人類的要素(如數據)納入到道德體系中去考慮。

因此,數據隱私問題與其說是商業權利跨越了道德門檻的問題,更深刻的理解是人類為了實現更大範圍的正義(不僅包括傳統世界,也包括數據的非自然世界),不得不提升自身的技術能力和修正倫理範式的過程。我們不僅要關注技術引發的倫理問題,也要看到技術對倫理的助推作用。

相關焦點

  • 孟涓涓:中國人覺得跟政府相關的企業特性最能消除對隱私保護顧慮
    以下為發言實錄:在人工智慧時代,實現數據給我們帶來的價值和隱私保護的矛盾日益凸顯。解決這個問題要求我們深入理解數據價值是什麼,也要求我們深入理解人們對隱私的態度究竟是什麼。上一個議題談論了數據,接下來我們談論隱私保護的問題。
  • 如何尋求數據開發與隱私保護的平衡
    ,並將規制範圍從行政部門擴大到民營企業。 對於數據保護,日本早在 20 世紀 80 年代就進行了較為系統的設計,國民整體隱私保護意識較高。如上所述,即使對於「需注意個人信息」的醫療數據,日本也沒有一味強調隱私保護,依然堅持應用與保護間的平衡,為推進醫療數據開發應用設計解決路徑。
  • 北大教授孟涓涓:數據時代,從3個層面看個人隱私問題
    北京大學光華管理學院教授孟涓涓出席論壇,並就「文化、技術和隱私態度」的話題進行演講。她主要從三方面進行了分析:一是,人們的隱私態度有什麼樣的跨文化差異;二是,哪些企業的特性能夠有效消除人們對隱私保護的顧慮;三是,數據安全技術的進步對隱私保護有什麼樣的影響。
  • 隱私計算技術發展報告發布:解決數據隱私保護難題的「關鍵之鑰」
    報告從市場與技術兩方面對隱私計算進行深入的解析,並從隱私計算發展、主流隱私計算技術介紹、技術項目簡介、隱私計算應用場景等多維度展現隱私計算全景,詳解隱私計算在數字時代背景下的機遇與挑戰。報告指出,伴隨著數字經濟的蓬勃發展,作為新一代生產要素,數據蘊含的巨大價值得到逐步釋放,與此同時,數據隱私問題卻日益凸顯,用戶數據隱私如何保護的問題亟待解決,隱私計算則被視為解決此問題的「關鍵之鑰」。
  • 從華為差分隱私技術看保護個體數據有多重要
    我們在數據使用過程中,主要的隱私洩露風險有三種:直接識別個體、連結攻擊和推理攻擊。可以肯定的是,刪除姓名、證件號等身份標識能夠在一定程度上保護個人隱私,但是並不能完全保證隱私信息的安全性。因為每個參與統計的個體都上傳了其個體特徵,用於分析的數據集一旦公開發布,攻擊者就可以利用連結攻擊和推理攻擊等差分攻擊技術,從最終分析結果中獲取用戶數據,比如個人消費習慣、收入情況、醫療就診記錄等。
  • 給數據加「噪音」,差分隱私如何保護用戶數據安全和隱私
    《MIT科技評論》評選的2020年十大突破技術中,就有差分隱私。《MIT科技評論》認為未來數據保護的難度會越來越高,解決這個問題的方法之一就是差分隱私,這種技術可以建立信任機制。什麼是差分隱私那麼什麼是差分隱私?它是一種數學技術,它能夠在給數據添加噪聲的同時,一直計算隱私提升的程度,從而使得增加「噪音」的過程變得更加嚴謹。
  • 如何用 AI 技術保護隱私安全?
    因此,保護隱私的 AI 技術的落地使用成為 AI 領域最亟待實現的目標。保護隱私的 AI 主要通過數據加密、分布式計算、邊緣計算、機器學習等多種技術的結合來保護數據安全,近期比較熱門的有Differential Privacy(差分隱私)、FederatedLearning(聯邦學習,也叫聯盟學習、聯合學習、共享學習)。
  • 六國隱私態度研究:中國人最關注隱私,對人臉識別接受度最高
    澎湃新聞記者 周頔 圖12月19日,在第二十二屆北大光華新年論壇上,北京大學光華管理學院教授孟涓涓表示,基於「文化、技術和隱私態度」的研究表明,相對於其他國家,中國人對隱私非常關注,但出於對政府的信任,對個人信息的使用表現出較高接受程度,尤其在公共事務方面。中國人更加信任政府監督,而其他國家更信賴市場或者行業自治。
  • 擔心AI侵犯數據?隱私計算技術受關注
    在一場智能數據云端峰會上,與會嘉賓討論了聯邦學習和多方安全計算等隱私計算技術,這有望打破數據流通的瓶頸。圖靈獎得主、中國科學院院士姚期智在今年的上海世界人工智慧大會開幕式上強調,人工智慧的相關研究需要重視理論研究和隱私保護學習。姚期智認為,將人工智慧與多方計算技術相結合,有望實現數據隱私保護。
  • 圖靈獎獲得者瑞迪談隱私保護:要用錢或服務換數據,讓用戶掌握控制權
    「收集數據時,如果沒有得到用戶的事前授權和同意,的確是對隱私有所侵犯。」在2019世界人工智慧大會上,對於如何平衡用戶隱私保護和人工智慧技術的發展,圖靈獎獲得者、中國工程院外籍院士、卡內基梅隆大學計算機科學教授拉吉·瑞迪(Raj Reddy)在接受採訪時給出了自己的看法和建議。
  • 陸奇對話Gary Marcus:面對技術缺陷、倫理爭議,如何構建可信AI?
    Gary Marcus 認為,利用分布式學習框架的「聯邦學習」可以有效解決數據獲取和隱私保護間的矛盾。而 AI 的偏見是由數據本身的不平衡產生,除非能訓練 AI 理解數據背後的含義,否則偏見問題還無法解決。在大多數人的觀念中,要解決這些倫理問題,AI 應該朝著 Artificial General Intelligence(通用人工智慧)努力。
  • 一場事關「未來」的協商——全國政協「人工智慧發展中的科技倫理...
    作為引領新一輪科技革命和產業變革的戰略性技術,人工智慧是時代發展的巨大機遇,也給科技倫理和法律帶來挑戰,它的「未知」遠遠大於「已知」。黨的十九屆五中全會將人工智慧作為具有前瞻性、戰略性的國家重大科技項目進行部署,是科學應變,更是主動求變。在政協這個「攬八方才俊、集各界精英」的平臺上,探討「人工智慧發展中的科技倫理與法律問題」這樣前沿、跨學科的課題,可謂適得其所。
  • 大數據時代隱私的邊界及限度
    因此以大數據時代為背景尋找隱私的邊界及限度,提出大數據時代的隱私應該以「合理的隱私期待」「人格尊嚴」為邊界,論述了大數據時代保護個人隱私的具體措施。一、隱私保護的路徑探索,大數據時代個人隱私呈現「透明化」狀態,大數據時代如何保護隱私成為研究的焦點;二、特殊群體和行業的隱私保護,如未成年人的隱私保護,醫療行業的隱私保護等;三、被遺忘權的引入及本土化改造,自2012年被遺忘權提出後,國內諸多學者對這一權利進行了探討,集中於理論介紹及本土化改造和論證;四、隱私權的法理論證,大數據背景下隱私權的內涵和外延都被再次討論。
  • 為什麼進行數字營銷必須關注「數據安全」和「隱私保護」?
    與之對應的是,各國政府正在持續加強對數據安全的監管和對個人隱私保護的力度。自2018年歐盟正式執行「史上最嚴數據保護條例」GDPR(《通用數據保護條例》)後,各國相繼出臺數據保護條例。在我國,今年《中華人民共和國個人信息保護法(草案)》也正式出臺。
  • 韓國製定人工智慧倫理標準,優先人的尊嚴和社會公益
    韓國國際廣播電臺11月27日消息,韓國政府制定人工智慧(AI)倫理標準,主要內容為開發和運用人工智慧需以人的尊嚴和社會公益為優先。科學技術信息通信部27日與情報通信政策研究院(KISDI)共同發布「國家人工智慧倫理標準」,提出理想的人工智慧開發和運用方向。據報導,「國家人工智慧倫理標準」以人為本,指出人工智慧需以人為中心。在開發和運用人工智慧的過程中,需遵守維護人的尊嚴、社會公益和技術合乎目的這3大原則。
  • 「刷臉」帶來隱私保護新挑戰,專家:行業自律法律監管缺一不可
    生物特徵就是我們的另一張身份證在機場、高鐵站進站核驗身份,刷臉;到酒店辦理入住,刷臉;在銀行遠程開戶,刷臉;網上支付、通過門禁,刷臉……近年來,以深度學習為核心的人工智慧技術飛速發展,其中,視覺識別技術應用落地頗為廣泛,人臉識別逐漸從少數安防場景滲透到人們的日常生活之中。今年以來,新冠肺炎疫情帶來無接觸的場景需求,更是加速了這一進程。
  • 中安網脈副總經理:大數據時代數據安全與隱私保護有兩個難題
    講座上,中安網脈副總經理、大數據安全事業部總經理查正朋以「大數據時代,信息安全如何守護?」為主題進行了分享。查正朋認為,目前隱私保護的實踐方法在大數據時代基本上形同虛設。大數據時代的數據安全與個人隱私保護面臨兩個難題:一是隨著物聯網的快速發展,海量數位化基礎設施隨時隨地在收集個人隱私,如何做好安全運營維護;二是海量數位化基礎設施必然帶來漏洞的快速增長,如何面對漏洞激增。
  • 第三代AI技術來了,如何守護個人隱私?
    中科院院士、清華大學人工智慧研究院院長張鈸更在會上直言,目前大數據等領域還欠缺一定安全性,而人工智慧理應更好的保護用戶隱私。但是隨著技術的發展應用,由此引起的數據偽造、算法瓶頸、隱私安全、倫理困境等問題也日益凸顯,人工智慧亟需發展出安全、可信、可靠與可擴展的第三代人工智慧技術。
  • VPN如何保護用戶的隱私和匿名性?
    虛擬專用網(VPN)已成為數據安全性和隱私性的代名詞。它們可以幫助我們加密網絡的線上活動,從而避免網絡攻擊,保持匿名和防止間諜活動。VPN的主要目的是在在線用戶和Internet之間建立安全連接。VPN會掩蓋用戶的網絡Internet協議(IP)地址,因此對於希望收集數據的黑客而言,用戶的在線行為幾乎變得不可追蹤。
  • 保護隱私快速訓練,Facebook開源Opacus,用差分隱私訓練PyTorch
    機器之心報導編輯:小舟、陳萍隱私保護是機器學習領域的重要倫理問題之一,而差分隱私(DP)是行之有效的隱私保護手段。那麼,如何方便地使用差分隱私來訓練機器學習模型呢?差分隱私是一個具備數學嚴謹性的框架,可用於量化敏感數據的匿名化。Facebook 在相關博客中表示,希望 Opacus 庫能為研究人員和工程師提供一條更簡單的途徑,以便在 ML 中使用差分隱私,並加快該領域的 DP 研究。Opacus 庫提供了什麼?