【智能與法】陳姿含:公共算法決策的法律規制(二)

2021-01-17 大數據和人工智慧法律研究院

對算法決策中立性的否定,和透明度的需求分析說明將公共算法決策納入法律規制的必要性。但是算法決策的合法性問題的核心不在於它比人類更加不透明,更加複雜或者更加具有偏見,如果是這樣,那麼對人類決策起作用的問題機制經過一系列的修改,即規則的精細化將起到作用。公共算法決策本身蘊含著這樣的矛盾,即當我們在公共管理視域中,法治的進步蘊含著對以知識代替意見與以客觀標準代替主觀隨意性的要求,由此建立起為社會一般公眾所認可的規則體系,這一過程並不摒棄價值的存在。尤其在社會公共領域,如果沒有價值判斷就不能進行重要的社會現象的研究。但是承認價值的評價,並不代表拒絕和排斥價值的衝突,比如在制度構建上自由和秩序的選擇,在路徑上保守還是改革的方法,在歷史進程中之中前學科知識和現代知識體系的優越問題上,而這恰是公共算法決策必須面臨的困境。因此,釐清算法決策作為一種知識形態或者技術方法並對法律傳統方法形成的挑戰是進行規制的前提。


(一)以分散個體為導向衝擊法律秩序的追求

算法決策代表了一種明顯的市場向度,無論從理論上還是實踐上,都對其社會政治和經濟制度構建影響深刻。算法決策的核心價值追求是效率,促使社會資源的投入向著超過人工生產力的大規模機械化作業進行傾斜,包括人工智慧和自動化決策。其在市場機制中體現地尤為明顯。在制度上,其削弱了程序護欄確保問責機制的有效性。對於傳統的法學價值,其目的機制在於公平、非歧視和人權保障等,以此作為標準進行審視,算法決策很有可能被認為具有「違法性」。但是,算法決策的創新和效率等新自由主義價值卻受到重視,這就要求我們要學會審核代碼,而不僅僅將重心局限於合規程序。算法決策與其是一種政治哲學,毋寧說以私有財產權、個人自由、不受阻礙的市場和自由貿易為特徵的制度取代或基於正義和福利為特徵的制度,通過網絡機構和人工智慧培養個人選擇美好生活的能力來最大程度提高個人福祉。這為算法合法性問題帶來系統性問題。因為算法決策的平等是機會均等,或者選擇均等。因此,平等的理念與社會實踐之間的差距不是因為制度設計,而是個人問題,自動化決策恰好適應了新自由主義的認識,平等地將有差別的人作為無差別的數字符號。超越單純的機制選擇與迭代的技術,政府一直是推動算法決策並將之用於公共服務的重要推動力量。由於經濟社會處於高速的數字轉型時期,數據主體的有效控制,收集和處理的合法、公開、透明,輸入和輸出的充分和準確,數據的存儲與訪問,技術措施的安全等問題都會引發關注。算法決策法律規制的背後,存在著對價值的衝突:有人保持對新技術的熱情,認為其是解決問題的關鍵;有人擁護自由的發展,認為個性與私營主體的多元創新能力優於政府的利益;也有人主張虛擬的空間自由主義,防止公權力的介入。但是,如果一項技術是服務於社會中的大多數群體的,政府的作用就不可替代,無論是作為社會系統的設計者還是行業領域技術創新的監管者,政府都承擔一種職責,打破技術中心主義的視角,去實現將個體保護納入到社會系統構建中,不僅僅通過算法決策透明度規則的強制性規定,而且也必須強調民主的控制。所以公共算法決策法律規制並非是讓法律保障算法,而是應當讓算法同法律一樣,服務於構建公共基礎性的架構。


(二)控制論基礎衝擊線性邏輯

問責離不開對因果關係的關注。法律責任通過線性邏輯和程序規定了被問責的行為的實現方式。算法會為了利益進行程序性的選擇。算法可以識別和評估所有風險,考慮替代方案,確定減輕的風險,並幫助闡明自動化的基本原理。算法註定了對於數據和過程的關注,也導致了將符號結構提升為實際遵守的法律證據,從而有可能忽略被算法決策實質性侵害的公正、平等和人性尊嚴的基本實質性價值。同時在算法決策這種分散的敘述中,本身就缺乏從個體到社會的價值觀的凝聚。

算法決策在邏輯上是一種以控制論為基礎,通過對「元數據」和「原始數據」進行收集和分析,使用智能化設備記錄使用數據的頻率、時間和階段,通過網絡進行設備和設備之間的通信,並且通過算法挖掘組合數據,觸發自動化的響應機制。所以從機制上來看算法決策是通過循環控制實現自動化,反對因果關係的線性邏輯。立法確認和調整社會關係離不開從具體到抽象的總結,因此是以個體為基礎的規範機制。機器學習算法則通過網路基礎架構和雲端,不局限於個體用戶的定位,還包括對分散的群體數據進行監控。因此算法從一開始就能夠以敏銳的洞察力預測個體和群體層面的行為,而不需要經過多個個體的累加和結果的總結,這種預測能力恰恰是人類認知所無法實現的。

關於符號的輸入,做到完全無差別是一種絕對理想的狀態。在這一過程中,固有的偏見可能會被強化,但這不是最重要的問題。問題是設計者制定算法和決策系統,被貫徹執行的標準顯然要明顯優於社會業已形成的線性關係,或者我們習慣中稱之為的因果關係。二戰以後跨學科的控制論發展,從美國的國防建設、英國的認知科學,以及俄羅斯的計算機和網絡發展都踐行了控制論推動算法在公共服務領域的實踐。而公共算法決策既有的實踐說明,如果不將個人獨特的知識體系納入決策系統中,將是一場機器代替人類的延伸,創造了大量的無用階級,而這可能會對整個社會結構帶來影響。


(三)公共算法精確性衝擊著權力-權利的運行

公共算法決策的法律規制所面臨的另外一個問題是如何以比例原則,協調政府的算法決策與公民個體權利保護。法國行政法典要求算法決策必須向數據主體說明以下幾個要素:第一,算法決策的貢獻程度和方式;第二,處理的數據和數據的來源;第三,處理數據參數以及酌情加權適用於有關人員的情況;第四,處理所有進行的操作。法國的行政法典規定了政府向個人說明的義務,但是綜合這四項要素,能夠對政府行為合理性判斷產生影響的只有貢獻程度這一實質要素。其他三項內容是一種說明的義務。但是在行政法上,解釋與辯解歷來存在張力。因此,當我們按照行政法上要求公共算法決策的可解釋性時,並不能夠證成合理性。另外,還必須要思考的問題是,行政法上所要求的合理性不允許算法錯誤的存在。這種算法的錯誤有可能是基於技術的錯誤,也可能是基於歧視的錯誤。

對公共算法決策而言,讓權力在陽光下運行,是推進算法決策的目的。提高算法透明度是法治的要求。算法可能帶來國家權力和平臺權力的擴張,擠壓公民個人的權利實現,因此必須通過信息公開以保障對個體行為的預測能力,防止權力在技術支撐下對個體權利進行侵害;公共領域算法應用必須防止權力的膨脹,實現有序的制度安排;算法所支撐的權力除卻在傳統意義上具有自上而下的滲透,還體現出在實際應用中的網絡化結構和彌散性,因此也要防止權力的旁落,數字精英對政府權力的實質性取代。所以,對政府的算法應當採取預防性審查機制,進行算法審查和評估,首要原則是進行公開,以排除不合法的敏感數據的使用,以保證決策的公正。同時,政府的算法決策必須保證民眾參與與退出的機制,這是行政權在實體和程序層面合法性的要求。

算法決策挑戰了自由裁量權,而這關係權力在公共管理中的運行問題。為了讓權力具有生命力,並在落實的過程中保持活力,管理體制中決策的模糊性是固有特徵。決策期待更低層次的執行者,對法律進行具體的實踐和定義的完善。這意味著傳統的決策與執行之間並非是完全的一致,但是在實踐的過程中卻保持了系統的有效運作。現在,算法的精確性可能導致權力的集中。強大的數據分析和人工智慧技術,作為創新驅動在諸多國家戰略決策層面被予以重視。較之於等待長期的實踐和分散信息的反饋,在宏觀層面建立新的協調機制加強數據監管和算法決策的方法備受青睞,比如數據管理機構的設立,英國、法國、德國等國家均採取了這種策略。這種新興的協調機制具體的任務包括確立步驟以明確法律法規指導數據應用與人工智慧技術發展。新興的數據機構向政府提供有關於人工智慧和數據安全的倫理性建議。並且根據數據使用和技術應用產生的潛在風險提供專家建議和解決途徑的支撐論證。在這一層面上,歐盟的GDPR與英國的數據保護條例都可以被視為創新協調機制的體現。 

相關焦點

  • 【智能與法】陳姿含:公共算法決策的法律規制(一)
    [作者簡介] 陳姿含(1987-),山東濰坊人,北京理工大學法學院講師,工信部智能科技風險法律防控重點實驗室辦公室主任,法學博士,生物醫藥法學博士,主要研究方向智能科技與法理學。[1] 張凌寒.算法權力的興起、異化及法律規制[J].法商研究,2019(4):64-75.
  • 自動化決策算法的法律規制
    自動化決策算法引起的法律風險已引起越來越多的社會關注,建議推行以國家機關為主體的算法評估或審計制度,切實保障個人的知情權和算法解釋權。         在人工智慧應用場景較多的領域,自動化決策算法引起的法律風險已經引起越來越多的社會關注,其中比較典型的是自動駕駛汽車致損和金融領域的數字貨幣被盜案件。
  • 網絡消費領域算法應用不公如何規制
    中國消費者協會近日召開網絡消費領域算法規制與消費者保護座談會,中國消費者協會秘書長朱劍橋坦言,技術進步和應用總體上有利於增進人類福利,同時也會造成新的困擾和傷害。在網絡消費領域,可能會減少消費者選擇的時間成本,但是也會讓消費者面臨信息安全、歧視對待等消費風險。「流量至上」「利潤至上」的算法應用,可能會使經營者行為有悖法律、有失道德、有違倫理。
  • 邢會強:人臉識別的法律規制 | 比較法研究202005
    (二)人臉識別技術的收益與風險  人臉識別技術的收益與風險關係直接決定了法律規制的基本態度。如果收益大於風險,法律的天平就應該向利用一側傾斜。如果風險大於收益,法律的天平就應該向保護一側傾斜。如果收益與風險的關係不確定,則法律應該謹慎,而不能盲目放開其利用。  人臉識別技術的收益是世所公認的。
  • 李偉民:《民法典》視域中區塊鏈的法律性質與規制
    區塊鏈不是法外之地,應該運用技術倫理和法律,讓區塊鏈發揮更大的作用。網際網路不是法外之地,區塊鏈和區塊鏈的應用應有法之治,技術不能取代法律。為了更好地規制區塊鏈的發展和應用,應逐步建立技術倫理規範,在傳統法律規制的基礎上,建立專門的區塊鏈法律。
  • 論算法共謀的反壟斷規制路徑
    正如Mark Fenster所言,規制的透明度要花成本,阻礙了法律的執行和安全目標,抑制政府官員在缺乏伴隨公共審查的必然壓力下商討政策事務的能力[12]906-908。並且,許多問題尚未明確,如規範的透明度如何取得實際效果,什麼樣的規制信息應該公開,這種信息如何呈現,透明度潛在的缺點如何避免等[13]7984。結果,靠僅有的透明度來監督代理機構和引起代理機構改變行為路線受到懷疑。
  • 加強網絡消費領域算法規制
    據新華社電 中國消費者協會7日在京召開網絡消費領域算法規制與消費者保護座談會,會議提出有效規制算法應用中的問題,切實解決消費者維權難,更好保護網絡領域消費者權益。  大數據殺熟、刷好評隱差評使評價結果呈現失真、平臺採用算法限制交易、網絡消費促銷規則繁複、網絡搜索競價排名推薦、網絡直播推送違反法律規定和公序良俗……這些問題的背後,核心是網際網路平臺對算法技術的應用。根據中消協調查,網絡領域涉及消費者權益的算法應用問題,包括推薦算法、價格算法、評價算法、排名算法、概率算法、流量算法等。
  • 轉基因食品安全法律規制研究
    因此,有必要對轉基因食品安全實施有效的法律保障,切實保護消費者,乃至全人類的環境權、健康權等合法權益。  二、我國轉基因食品安全性的法律規制及不足  (一)我國轉基因食品安全的相關法規  2009年6月1日,《中華人民共和國食品安全法》正式施行。
  • 龍俊:重大突發公共事件中價格管制的正當性及其法律規制 | 中國...
    從這六次影響較大的價格管制實踐中,我國其實已經對如何在重大突發公共事件中處理價格違法行為積累了較為豐富的經驗,而這些經驗在很大程度上又有助於此次疫情的防控。當然,這些有關價格管制的法律實踐卻始終沒有平息其在學術界引發的爭議。  (二)重大突發公共事件中價格管制的經濟學爭論  經濟學界對緊急情況下是否應實行價格管制的問題一直存有爭議。
  • 人類基因編輯實驗的法律規制
    鑑於此,本文擬從技術背景與風險情境出發,以基因自主權為分析前提,以權利衝突及其規範衡平為中心,借鑑域外規範經驗,探討我國規制人類胚胎基因實驗的法律政策。二、人類胚胎基因實驗的技術背景與風險情境人類胚胎基因實驗以人類胚胎或前胚胎為實驗對象,從技術類型上可以分為基因檢測、基因診斷、基因篩選、基因治療、基因改造(基因編輯)等。
  • 馮碩:TikTok被禁中的數據博弈與法律回應
    例如印度政府近來就依據該國信息技術法先後封禁了上百款中國App,並聲稱相關App參與了不利於印度主權、國防、國家安全和公共秩序的活動。這種依據國內法進行單方制裁的主權擴張,已然成為相關國家制裁中國企業的重要方式,並帶有一定的蔓延趨勢。最後,「規則重塑」成為博弈的核心目標。秩序的維繫離不開對規則的創製與維護,而國際法便是維繫國際秩序的核心規則。
  • 數字法治:外賣騎手屢被「算計」,算法透明的是是非非
    不過,算法的複雜性與相關技術盲點應是技術教育和學習而非法律規制應解決的問題,而算法的保密性和算法使用者的刻意隱瞞作為具有法律意義的制度安排和個體行為,則可回歸法律層面予以分析。因算法是算法使用者或算法設計者投入巨大成本訓練而成,通常被保密措施精心呵護。這導致相比於算法使用者的刻意隱瞞,以保護競爭優勢為名的商業秘密制度將為算法使用者故意隱藏規則、操縱消費者和製造歧視創造更多的灰色空間。
  • 美國生物技術研究風險法律規制
    我國《生物安全法》不久將正式施行,如何更好地促進生物技術的健康發展仍將持續成為各國生物安全法制領域長期探索的重要話題。作為較早投入生物技術研發的國家,美國對生物技術的立法規制也在不斷發展中。  生物技術的雙重用途研究風險  毫無疑問,生物技術研究對於促進公共健康安全、農業、環境、能源和國家安全至關重要。
  • 「深度」夏蜀|規制第三方實施:理論溯源與經濟治理現代化
    一方面,新制度經濟學在與規制密切相關的企業產權制度 領域,形成了系統的治理機制與治理結構理論;另一方面,隨著法經濟學、新政治經濟學、新公共治理理論等學科或理論的興起與發展,規制又不再隅於經濟學領域,而是橫跨政治學、法學以及公共管理等多領域,成為「政府管理公共事務、提升治理能力和實現現代國家建構的治理工具」;同時 20 世紀 80 年代末以來政府公共治理改革浪潮席捲全球,政府規制更是時常被「經濟治理」
  • 楊永純:藏傳佛教活佛轉世制度是「行動的法」
    此後的中國中央政府將之以「舊制」「定製」「歷史定製」進行指稱,在審慎地宣明融貫的效力之後,擴展形成了新的法律法規。通過回溯轉世制度形成過程中曾發生規制意義的那些規範,我們可以看出,轉世制度無疑是具有確定淵源的、層累的法。美國立法機構在法案中載明:「要求修訂條款必須增加『包括關於藏傳佛教轉世制度的內容』」,既以「制度」定位作為法的轉世制度,又對制度化脈絡幾無所知。
  • 算法預測銷量準確率90%!智能決策公司ToB,想用AI做人想不到的事
    上述三個例子,只是CEO黃曉南平日接手的智能決策案例的冰山一角。黃曉南作為創始人的品友互動,此前已是在AI營銷領域戰鬥了10多年的老牌玩家,深耕智能決策3年。智能決策還是一片藍海這一次升級將企業的航向定位在智能決策,黃曉南講了講背後的邏輯,無非就為內外兩點。
  • 太平洋大逃殺案結:以法律規制人性 |新京報評論
    ▲最高法刑事裁定書。圖片來自來自裁判文書網  3  很多人在看到這個案子時會說,人性怎麼可以這麼殘忍,所以要反思人性。我們足以以此為案例反思,如何在日常的社會治理中,更好地以秩序規制人性。  王學泰給遊民社會開出的藥方是法治,只有法治,才能將人性之惡關進籠子裡,才能生出一個正常有序的社會場域。  確實如此。如果「2682」號漁船上,劉貴奪們心中有對法律的敬畏,知道若殺死船員一定會接受法律制裁,他是否還會喪心病狂?
  • 全能銀行的潛在利益衝突及其法律規制
    所以,利用法律對之進行防範和控制十分必要。  要考察全能銀行潛在利益衝突的法律監管制度,首先要弄清產生利益衝突的原因,進而弄清其危害,然後才好利用法律監管手段「對症下藥」。一位資深律師曾精闢地指出:「引發利益衝突的原因是多種多樣的,且在不斷變化中。」
  • 智慧城市背景下居民自治的發展困境與法律應對
    (二)利益相關性增強,居民話語權重新分配  傳統模式下,在居民自治的具體實踐中,多表現為民主選舉,涉及民主決策、民主管理和民主監督的公共事務較少。偶有需要召開居民會議或居民代表會議的事項時,參加者也大多是中老年人,青年人因為上班或撫育子女等各種原因並不熱衷於參加居民會議或居民代表會議,社區青年普遍「缺席」社區或院落公共事務的管理。
  • 商務白話「智能合約」
    二、智能合約的規制對象  智能合約的規制對象,其實就是區塊鏈帳簿中狀態資料庫存儲的數據對象。  引入狀態資料庫,是區塊鍊表達能力的一次質的提升,其實也是智能合約得以運用的前提。智能合約本質上是電腦程式,需要在計算機上運行,無論是多複雜的數據對象,最終都需要序列化成二進位編碼,不管是多麼複雜的算法,最終的進程走向都是個確定的路徑。所以,智能合約不會像自然語言合同那樣產生語義模糊問題,不會因為不同主體對條款含義的理解不同而發生糾紛,當然也就不會有「規避監管」或者「美化報表」的語義解釋空間。