2019-04-19 14:53:34 | 來源:人民法院報 | 作者:宋建寶
人工智慧(Artificial Intelligence,簡稱AI)能夠造福社會,讓我們的世界變得更加美好,但同時在法律和倫理方面也帶來了新的挑戰。為了有效應對這些挑戰並充分利用AI帶來的新機遇,歐盟委員會於2019年4月8日以「建立對以人為本AI的信任」為題,發布了歐洲版的AI倫理準則,期望建立「以人為本、值得信任」的AI倫理標準,不斷促進社會公眾接受AI技術、應用AI技術。
出臺背景
《歐洲人工智慧戰略》提出,AI應當堅持以人為本的價值觀立場,AI本身並不是目的,只是服務人類的工具,其最終目的應當是增進人類福祉。因此,AI的開發應用需要全面融入社會價值觀。歐盟是建立在尊嚴、自由、民主、平等、法治和人的基本權利(包括少數人的權利)等價值觀之上的。這些價值觀在盛行多元主義、非歧視、寬容、正義、平等、團結等歐盟成員國中也都獲得普遍認同。
此外,《歐盟基本權利憲章》規定了歐盟人民所享有的個人的、公民的、政治的、經濟的和社會的各項權利。這些都為AI的開發應用提供了以人為本價值觀的基礎保障。
信任是確保AI堅持以人為本價值觀立場的前提條件。AI應當不斷增強人們的能力,尊重人們的基本權利,不斷賦能於人類,而不是取代人類,更不能奴役人類。因此,AI必須獲得人們的信任。歐盟現有的監管制度,為AI的可信任性提供了強有力的法律保障。《通用數據保護條例》確立了個人數據保護的高標準,並要求採取措施,確保蓄意情況下和默認情況下的個人數據保護。《非個人數據自由流動條例》則消除了非個人數據自由流動的障礙,可以確保歐洲任何地方任何類型的數據都能夠得到處理。最近通過的《網絡安全法》將有助於增強人們對網絡空間的信任,提議中的《電子隱私條例》也旨在增強人們對網絡世界的信任。
然而,AI技術帶來了新的挑戰。AI技術最突出的特點就是能夠讓機器不斷地「學習」,並且在沒有人類介入的情況下機器能夠自行做出決定和執行決定。數據、算法和算力是人工智慧的三個支撐基礎,三者之間的關係,簡單來說就是算法依據數據進行運算後做出決定並執行決定。但是,算法所依據的數據可能是不完整的,可能是被篡改過的,可能存在固有偏見,也可能僅僅是錯誤的。無論具體原因如何,這勢必將引發一些不確定的結果,導致人們覺得AI技術是不可靠的。由此可得,AI要獲得社會公眾的信任,不僅要遵守法律規定,還應當符合倫理原則並確保避免意外傷害。
據此,歐盟委員會認為,需要在現有監管制度的基礎上制定倫理準則,供AI開發商、製造商、供應商和使用者在內部市場中予以採用,進而在所有成員國範圍內建立通行的AI倫理標準。為此,歐盟委員會設立AI高級專家組,並委託起草AI倫理準則。AI高級專家組於2018年12月發布了倫理準則初稿,隨後與利益相關者、歐盟成員國代表進行會商。根據相關反饋意見,AI高級專家組於2019年3月向歐盟委員會提交了修訂後的AI倫理準則。
主要內容
歐盟AI高級專家組起草該倫理準則過程中,參考了歐洲科學與新技術倫理小組和歐洲基本權利機構的有關工作成果。為了實現「可信任AI」,本倫理準則確立了三項基本原則:(1)AI應當符合法律規定;(2)AI應當滿足倫理原則;(3)AI應當具有可靠性。
根據這三項基本原則和前述歐洲社會價值觀,本倫理準則進一步提出了「可信任AI」應當滿足的七項關鍵要求,具體包括:(1)人的自主和監督;(2)可靠性和安全性;(3)隱私和數據治理;(4)透明度;(5)多樣性、非歧視性和公平性;(6)社會和環境福祉;(7)可追責性。雖然所有AI都應當滿足這些關鍵要求,但是在實踐中需要根據具體情況確定相應的實施標準,例如,用於閱讀推薦的AI應用程式可能引發的風險肯定要比用於醫療診斷的AI應用程式引發的風險小得多,由此這兩種AI應用程式對上述關鍵要求的實施標準也應當有所不同。
歐盟委員會認為,AI高級專家組起草的這份倫理準則對制定AI發展政策具有重要的參考價值,鼓勵AI開發商、製造商、供應商等利益相關者積極採用這些關鍵要求,以便為「可信任AI」的成功開發應用建立更為有利的社會環境。同時,歐盟委員會希望利益相關者積極提供意見和建議,以便評估本AI倫理準則是否需要進一步調整。
需要指出,歐盟AI高級專家組起草的這份倫理準則並不具有法律上的約束力,因此對相關機構和人員不會產生任何新的法律義務。但是也確實需要注意,歐盟現有的一些法律規定已經體現了上述七項關鍵要求中的一項或者幾項內容,例如安全、個人數據保護、隱私、環境保護等等。
具體解釋
1.人的能動與監督
人的能動,是以人為本價值觀的具體體現。這要求人在由人—機構成的AI中仍然保持其主體性,AI應當增強人的自主性和保障人的基本權利,幫助個人根據其目標做出更好的、更明智的選擇,進而促進整個社會的繁榮與公平,而不是減少、限制或者誤導人的自主性。
人的監督,可以確保AI不會削弱人的自主性或者造成其他不利影響。為此,要依據AI及其特定應用領域,確保適度的人為控制措施。人對AI的監督越少,AI就應當接受更廣泛的測試和更嚴格的管理。事物之間的關係總是相互平衡的,因此反之亦然。人的監督可以通過相應的治理機制來實現,例如人機迴環、人控迴環等方法。同時,AI也必須保障公共管理部門能夠依據法定職權對AI行使監管權。
2.可靠性和安全性
首先,「可信任AI」要求其所用算法必須具有可靠性和安全性,完全能夠應對和處理AI整個生命周期內其自身發生的各種錯誤結果。其次,AI具有可靠性和安全性,要求AI能夠抵禦來自外部的各種攻擊和不當幹擾,不僅能夠抵禦那些公開的網絡攻擊行為,也同樣能夠抵禦那些試圖操控數據或算法的隱蔽行為。最後,「可信任AI」的決定必須是準確的,或者至少能夠正確地反映其準確率,並且其結果應該是可重複的。
此外,AI應當確保每一步都具有可驗證的安全性。這就要求,AI運行過程中發生的各種意外後果和錯誤都必須進行最小化處理,甚至在可能情況下進行可逆性處理。同時,針對AI運行過程中可能發生的各種潛在風險,應當事先予以充分披露並建立相應的評估程序。
3.隱私與數據治理
隱私和數據保護在AI整個生命周期的所有階段都必須得到保障。根據人們行為信息的數位化記錄,AI不僅可以推斷出個人的偏好、年齡和性別,還可以推斷出他們的性取向、宗教信仰或政治觀點。為了使人們能夠信任AI的數據處理,AI必須確保人們對自己的數據擁有完全的控制權,並且確保人們不會因為這些數據而受到傷害或歧視。
除了保護隱私和個人數據,高質量AI還必須滿足一些額外要求。首先,AI應當採用高質量的數據集。當收集數據時,AI可能會反映出社會上的一些偏見,或者納入一些誤差或者錯誤。對於任何給定數據集的AI來說,這些問題必須在訓練之前予以解決。其次,AI必須保證數據的完整性。AI所用方法和數據集在每個步驟,例如計劃、訓練、測試和應用等等,都必須進行測試和如實記錄。最後,高質量AI必須嚴格管控其數據訪問。
4.透明度
首先,AI應當具有可追溯性。AI要如實記錄系統所做的決定及其生成決定的整個過程,包括數據收集描述、數據標記描述以及所用算法描述。其次,AI應當提供其組織化的決策過程、系統設計選擇的理由以及相應的應用理由,不僅要確保其數據和系統的透明度,還要確保其業務模型的透明度。再者,結合已有應用案例,AI的能力與局限應當以適當方式充分披露給不同的利益相關者。最後,AI應當是可識別的,以確保使用者知道他們與哪一個AI正在進行交互,並且知道由誰對該AI負責。
5.多樣性、非歧視性和公平性
AI所用數據集(包括用於訓練的數據集和用於實際應用的數據集)可能會受到無意識的偏見、不完整性和不良治理模型的影響。持續的社會偏見可能導致間接的或直接的歧視。當然,一些傷害也可能是AI開發商、製造商、供應商,甚至使用者,故意利用偏見或者從事不公平競爭造成的。諸如此類的問題,在AI開發之初就應當予以解決。
為此,AI開發商在開發過程中應當建立多樣化的設計團隊,建立保障參與機制,有助於避免這些問題。同時,開發商不斷諮詢在AI生命周期內可能直接或間接受到系統影響的利益相關者,也有助於解決這些問題。另外,AI開發商應當全面考慮不同人群的能力和需求,確保AI具有易用性,並盡力確保殘疾人也能夠便利、平等地使用AI。
6.社會與環境福祉
對於AI的影響,不僅要從個人的角度來考慮,還應當從整個社會的角度來考慮。人們應當認真考慮AI對社會公共治理活動的影響,特別是那些與民主決策過程有關的情形,包括意見形成、政治決策、選舉活動等。此外,AI可以提高人們的社會技能,但同樣也會導致人們社會技能的退化,因此AI對人們社會技能的影響也應當予以充分考慮。
為了確保AI具有可信任性,還必須考慮AI對人類和其他生物的環境影響。在理想情況下,所有人類,包括後代在內,都應當受益於生物多樣性和適宜居住的環境。這也同樣適用於目前全球都在關注的AI解決方案的可持續發展問題。因此,人們應當鼓勵AI的可持續性和生態保護責任。
7.可追責性
具有可追責性的AI,能夠有力提升人們對AI的信任。為此,應當建立責任機制,確保人們能夠對AI及其結果進行追責。AI的內部審核人員和外部審核人員對AI開展的評估以及相應的評估報告,是保障人們能夠對AI進行追責的關鍵。因此,AI應當具有可審核性並確保人們能夠容易地獲得相關評估報告。
首先,AI的潛在負面影響,應當事先予以識別、評估、記錄並進行最小化處理。對於需求之間不可避免的權衡,應當以合理的方式進行解決並予以說明。其次,對於影響人們基本權利的那些AI應用程式,包括有關安全的一些重要應用程式,尤其應當確保其具有外部可審計性。當然,對於AI應用過程中發生的不公平的不利影響,應當提供可預期的、便利的、充分的補償機制。
實施計劃
為了確保本倫理準則能夠在AI開發應用過程中得到實施,歐盟委員會將在歐盟內部啟動有針對性的試點工作,同時將努力促進國際社會就「可信任AI」達成廣泛共識。
1.在歐盟內部啟動試點工作
為了確保本倫理準則的實施,歐盟委員會將在歐盟內部啟動有針對性的試點工作,目的在於獲得利益相關者的反饋。試點工作主要包括兩部分:(1)針對AI利益相關者以及公共管理部門開展評估和反饋;(2)組織歐盟成員國和不同利益相關群體之間開展持續協商和加深認識。
到2020年初,對試點階段收到的各種反饋進行評估後,歐盟AI高級專家組將審查和更新本倫理準則。根據審查結果和實施經驗,歐盟委員會將評估實施結果並提出後續工作計劃。
2.努力將倫理準則推向國際社會
考慮到AI在數據流通、算法開發和產業投資方面的國際性,歐盟委員會將努力向全球推廣本倫理準則,積極促進國際社會就「可信任AI」達成共識。為此,歐盟委員會將積極開展以下工作:
加強與志同道合夥伴的合作。一方面,積極探索本倫理準則與第三國(例如日本、加拿大、新加坡)倫理準則的融合程度,然後在此基礎上,為更大範圍內倫理準則討論做好準備。另一方面,嘗試探索非歐盟國家的公司和國際組織測試和驗證本倫理準則,從而為本倫理準則的「試點階段」做出貢獻。
繼續在國際討論和倡議中發揮積極作用。主要包括:為G7集團和G20集團等多邊論壇做出貢獻;與非歐盟國家開展對話,組織雙邊和多邊會議;為國際標準組織的相關標準化活動做出貢獻;加強對公共政策的收集和傳播,與相關國際組織開展合作。
(作者單位:中國應用法學研究所)