對算法決策中立性的否定,和透明度的需求分析說明將公共算法決策納入法律規制的必要性。但是算法決策的合法性問題的核心不在於它比人類更加不透明,更加複雜或者更加具有偏見,如果是這樣,那麼對人類決策起作用的問題機制經過一系列的修改,即規則的精細化將起到作用。公共算法決策本身蘊含著這樣的矛盾,即當我們在公共管理視域中,法治的進步蘊含著對以知識代替意見與以客觀標準代替主觀隨意性的要求,由此建立起為社會一般公眾所認可的規則體系,這一過程並不摒棄價值的存在。尤其在社會公共領域,如果沒有價值判斷就不能進行重要的社會現象的研究。但是承認價值的評價,並不代表拒絕和排斥價值的衝突,比如在制度構建上自由和秩序的選擇,在路徑上保守還是改革的方法,在歷史進程中之中前學科知識和現代知識體系的優越問題上,而這恰是公共算法決策必須面臨的困境。因此,釐清算法決策作為一種知識形態或者技術方法並對法律傳統方法形成的挑戰是進行規制的前提。
(一)以分散個體為導向衝擊法律秩序的追求
算法決策代表了一種明顯的市場向度,無論從理論上還是實踐上,都對其社會政治和經濟制度構建影響深刻。算法決策的核心價值追求是效率,促使社會資源的投入向著超過人工生產力的大規模機械化作業進行傾斜,包括人工智慧和自動化決策。其在市場機制中體現地尤為明顯。在制度上,其削弱了程序護欄確保問責機制的有效性。對於傳統的法學價值,其目的機制在於公平、非歧視和人權保障等,以此作為標準進行審視,算法決策很有可能被認為具有「違法性」。但是,算法決策的創新和效率等新自由主義價值卻受到重視,這就要求我們要學會審核代碼,而不僅僅將重心局限於合規程序。算法決策與其是一種政治哲學,毋寧說以私有財產權、個人自由、不受阻礙的市場和自由貿易為特徵的制度取代或基於正義和福利為特徵的制度,通過網絡機構和人工智慧培養個人選擇美好生活的能力來最大程度提高個人福祉。這為算法合法性問題帶來系統性問題。因為算法決策的平等是機會均等,或者選擇均等。因此,平等的理念與社會實踐之間的差距不是因為制度設計,而是個人問題,自動化決策恰好適應了新自由主義的認識,平等地將有差別的人作為無差別的數字符號。超越單純的機制選擇與迭代的技術,政府一直是推動算法決策並將之用於公共服務的重要推動力量。由於經濟社會處於高速的數字轉型時期,數據主體的有效控制,收集和處理的合法、公開、透明,輸入和輸出的充分和準確,數據的存儲與訪問,技術措施的安全等問題都會引發關注。算法決策法律規制的背後,存在著對價值的衝突:有人保持對新技術的熱情,認為其是解決問題的關鍵;有人擁護自由的發展,認為個性與私營主體的多元創新能力優於政府的利益;也有人主張虛擬的空間自由主義,防止公權力的介入。但是,如果一項技術是服務於社會中的大多數群體的,政府的作用就不可替代,無論是作為社會系統的設計者還是行業領域技術創新的監管者,政府都承擔一種職責,打破技術中心主義的視角,去實現將個體保護納入到社會系統構建中,不僅僅通過算法決策透明度規則的強制性規定,而且也必須強調民主的控制。所以公共算法決策法律規制並非是讓法律保障算法,而是應當讓算法同法律一樣,服務於構建公共基礎性的架構。
(二)控制論基礎衝擊線性邏輯
問責離不開對因果關係的關注。法律責任通過線性邏輯和程序規定了被問責的行為的實現方式。算法會為了利益進行程序性的選擇。算法可以識別和評估所有風險,考慮替代方案,確定減輕的風險,並幫助闡明自動化的基本原理。算法註定了對於數據和過程的關注,也導致了將符號結構提升為實際遵守的法律證據,從而有可能忽略被算法決策實質性侵害的公正、平等和人性尊嚴的基本實質性價值。同時在算法決策這種分散的敘述中,本身就缺乏從個體到社會的價值觀的凝聚。
算法決策在邏輯上是一種以控制論為基礎,通過對「元數據」和「原始數據」進行收集和分析,使用智能化設備記錄使用數據的頻率、時間和階段,通過網絡進行設備和設備之間的通信,並且通過算法挖掘組合數據,觸發自動化的響應機制。所以從機制上來看算法決策是通過循環控制實現自動化,反對因果關係的線性邏輯。立法確認和調整社會關係離不開從具體到抽象的總結,因此是以個體為基礎的規範機制。機器學習算法則通過網路基礎架構和雲端,不局限於個體用戶的定位,還包括對分散的群體數據進行監控。因此算法從一開始就能夠以敏銳的洞察力預測個體和群體層面的行為,而不需要經過多個個體的累加和結果的總結,這種預測能力恰恰是人類認知所無法實現的。
關於符號的輸入,做到完全無差別是一種絕對理想的狀態。在這一過程中,固有的偏見可能會被強化,但這不是最重要的問題。問題是設計者制定算法和決策系統,被貫徹執行的標準顯然要明顯優於社會業已形成的線性關係,或者我們習慣中稱之為的因果關係。二戰以後跨學科的控制論發展,從美國的國防建設、英國的認知科學,以及俄羅斯的計算機和網絡發展都踐行了控制論推動算法在公共服務領域的實踐。而公共算法決策既有的實踐說明,如果不將個人獨特的知識體系納入決策系統中,將是一場機器代替人類的延伸,創造了大量的無用階級,而這可能會對整個社會結構帶來影響。
(三)公共算法精確性衝擊著權力-權利的運行
公共算法決策的法律規制所面臨的另外一個問題是如何以比例原則,協調政府的算法決策與公民個體權利保護。法國行政法典要求算法決策必須向數據主體說明以下幾個要素:第一,算法決策的貢獻程度和方式;第二,處理的數據和數據的來源;第三,處理數據參數以及酌情加權適用於有關人員的情況;第四,處理所有進行的操作。法國的行政法典規定了政府向個人說明的義務,但是綜合這四項要素,能夠對政府行為合理性判斷產生影響的只有貢獻程度這一實質要素。其他三項內容是一種說明的義務。但是在行政法上,解釋與辯解歷來存在張力。因此,當我們按照行政法上要求公共算法決策的可解釋性時,並不能夠證成合理性。另外,還必須要思考的問題是,行政法上所要求的合理性不允許算法錯誤的存在。這種算法的錯誤有可能是基於技術的錯誤,也可能是基於歧視的錯誤。
對公共算法決策而言,讓權力在陽光下運行,是推進算法決策的目的。提高算法透明度是法治的要求。算法可能帶來國家權力和平臺權力的擴張,擠壓公民個人的權利實現,因此必須通過信息公開以保障對個體行為的預測能力,防止權力在技術支撐下對個體權利進行侵害;公共領域算法應用必須防止權力的膨脹,實現有序的制度安排;算法所支撐的權力除卻在傳統意義上具有自上而下的滲透,還體現出在實際應用中的網絡化結構和彌散性,因此也要防止權力的旁落,數字精英對政府權力的實質性取代。所以,對政府的算法應當採取預防性審查機制,進行算法審查和評估,首要原則是進行公開,以排除不合法的敏感數據的使用,以保證決策的公正。同時,政府的算法決策必須保證民眾參與與退出的機制,這是行政權在實體和程序層面合法性的要求。
算法決策挑戰了自由裁量權,而這關係權力在公共管理中的運行問題。為了讓權力具有生命力,並在落實的過程中保持活力,管理體制中決策的模糊性是固有特徵。決策期待更低層次的執行者,對法律進行具體的實踐和定義的完善。這意味著傳統的決策與執行之間並非是完全的一致,但是在實踐的過程中卻保持了系統的有效運作。現在,算法的精確性可能導致權力的集中。強大的數據分析和人工智慧技術,作為創新驅動在諸多國家戰略決策層面被予以重視。較之於等待長期的實踐和分散信息的反饋,在宏觀層面建立新的協調機制加強數據監管和算法決策的方法備受青睞,比如數據管理機構的設立,英國、法國、德國等國家均採取了這種策略。這種新興的協調機制具體的任務包括確立步驟以明確法律法規指導數據應用與人工智慧技術發展。新興的數據機構向政府提供有關於人工智慧和數據安全的倫理性建議。並且根據數據使用和技術應用產生的潛在風險提供專家建議和解決途徑的支撐論證。在這一層面上,歐盟的GDPR與英國的數據保護條例都可以被視為創新協調機制的體現。