歐盟人工智慧倫理準則概要

2020-12-04 中國法院網

2019-04-19 14:53:34 | 來源:人民法院報 | 作者:宋建寶

  人工智慧(Artificial Intelligence,簡稱AI)能夠造福社會,讓我們的世界變得更加美好,但同時在法律和倫理方面也帶來了新的挑戰。為了有效應對這些挑戰並充分利用AI帶來的新機遇,歐盟委員會於2019年4月8日以「建立對以人為本AI的信任」為題,發布了歐洲版的AI倫理準則,期望建立「以人為本、值得信任」的AI倫理標準,不斷促進社會公眾接受AI技術、應用AI技術。

  出臺背景

  《歐洲人工智慧戰略》提出,AI應當堅持以人為本的價值觀立場,AI本身並不是目的,只是服務人類的工具,其最終目的應當是增進人類福祉。因此,AI的開發應用需要全面融入社會價值觀。歐盟是建立在尊嚴、自由、民主、平等、法治和人的基本權利(包括少數人的權利)等價值觀之上的。這些價值觀在盛行多元主義、非歧視、寬容、正義、平等、團結等歐盟成員國中也都獲得普遍認同。

  此外,《歐盟基本權利憲章》規定了歐盟人民所享有的個人的、公民的、政治的、經濟的和社會的各項權利。這些都為AI的開發應用提供了以人為本價值觀的基礎保障。

  信任是確保AI堅持以人為本價值觀立場的前提條件。AI應當不斷增強人們的能力,尊重人們的基本權利,不斷賦能於人類,而不是取代人類,更不能奴役人類。因此,AI必須獲得人們的信任。歐盟現有的監管制度,為AI的可信任性提供了強有力的法律保障。《通用數據保護條例》確立了個人數據保護的高標準,並要求採取措施,確保蓄意情況下和默認情況下的個人數據保護。《非個人數據自由流動條例》則消除了非個人數據自由流動的障礙,可以確保歐洲任何地方任何類型的數據都能夠得到處理。最近通過的《網絡安全法》將有助於增強人們對網絡空間的信任,提議中的《電子隱私條例》也旨在增強人們對網絡世界的信任。

  然而,AI技術帶來了新的挑戰。AI技術最突出的特點就是能夠讓機器不斷地「學習」,並且在沒有人類介入的情況下機器能夠自行做出決定和執行決定。數據、算法和算力是人工智慧的三個支撐基礎,三者之間的關係,簡單來說就是算法依據數據進行運算後做出決定並執行決定。但是,算法所依據的數據可能是不完整的,可能是被篡改過的,可能存在固有偏見,也可能僅僅是錯誤的。無論具體原因如何,這勢必將引發一些不確定的結果,導致人們覺得AI技術是不可靠的。由此可得,AI要獲得社會公眾的信任,不僅要遵守法律規定,還應當符合倫理原則並確保避免意外傷害。

  據此,歐盟委員會認為,需要在現有監管制度的基礎上制定倫理準則,供AI開發商、製造商、供應商和使用者在內部市場中予以採用,進而在所有成員國範圍內建立通行的AI倫理標準。為此,歐盟委員會設立AI高級專家組,並委託起草AI倫理準則。AI高級專家組於2018年12月發布了倫理準則初稿,隨後與利益相關者、歐盟成員國代表進行會商。根據相關反饋意見,AI高級專家組於2019年3月向歐盟委員會提交了修訂後的AI倫理準則。

  主要內容

  歐盟AI高級專家組起草該倫理準則過程中,參考了歐洲科學與新技術倫理小組和歐洲基本權利機構的有關工作成果。為了實現「可信任AI」,本倫理準則確立了三項基本原則:(1)AI應當符合法律規定;(2)AI應當滿足倫理原則;(3)AI應當具有可靠性。

  根據這三項基本原則和前述歐洲社會價值觀,本倫理準則進一步提出了「可信任AI」應當滿足的七項關鍵要求,具體包括:(1)人的自主和監督;(2)可靠性和安全性;(3)隱私和數據治理;(4)透明度;(5)多樣性、非歧視性和公平性;(6)社會和環境福祉;(7)可追責性。雖然所有AI都應當滿足這些關鍵要求,但是在實踐中需要根據具體情況確定相應的實施標準,例如,用於閱讀推薦的AI應用程式可能引發的風險肯定要比用於醫療診斷的AI應用程式引發的風險小得多,由此這兩種AI應用程式對上述關鍵要求的實施標準也應當有所不同。

  歐盟委員會認為,AI高級專家組起草的這份倫理準則對制定AI發展政策具有重要的參考價值,鼓勵AI開發商、製造商、供應商等利益相關者積極採用這些關鍵要求,以便為「可信任AI」的成功開發應用建立更為有利的社會環境。同時,歐盟委員會希望利益相關者積極提供意見和建議,以便評估本AI倫理準則是否需要進一步調整。

  需要指出,歐盟AI高級專家組起草的這份倫理準則並不具有法律上的約束力,因此對相關機構和人員不會產生任何新的法律義務。但是也確實需要注意,歐盟現有的一些法律規定已經體現了上述七項關鍵要求中的一項或者幾項內容,例如安全、個人數據保護、隱私、環境保護等等。

  具體解釋

  1.人的能動與監督

  人的能動,是以人為本價值觀的具體體現。這要求人在由人—機構成的AI中仍然保持其主體性,AI應當增強人的自主性和保障人的基本權利,幫助個人根據其目標做出更好的、更明智的選擇,進而促進整個社會的繁榮與公平,而不是減少、限制或者誤導人的自主性。

  人的監督,可以確保AI不會削弱人的自主性或者造成其他不利影響。為此,要依據AI及其特定應用領域,確保適度的人為控制措施。人對AI的監督越少,AI就應當接受更廣泛的測試和更嚴格的管理。事物之間的關係總是相互平衡的,因此反之亦然。人的監督可以通過相應的治理機制來實現,例如人機迴環、人控迴環等方法。同時,AI也必須保障公共管理部門能夠依據法定職權對AI行使監管權。

  2.可靠性和安全性

  首先,「可信任AI」要求其所用算法必須具有可靠性和安全性,完全能夠應對和處理AI整個生命周期內其自身發生的各種錯誤結果。其次,AI具有可靠性和安全性,要求AI能夠抵禦來自外部的各種攻擊和不當幹擾,不僅能夠抵禦那些公開的網絡攻擊行為,也同樣能夠抵禦那些試圖操控數據或算法的隱蔽行為。最後,「可信任AI」的決定必須是準確的,或者至少能夠正確地反映其準確率,並且其結果應該是可重複的。

  此外,AI應當確保每一步都具有可驗證的安全性。這就要求,AI運行過程中發生的各種意外後果和錯誤都必須進行最小化處理,甚至在可能情況下進行可逆性處理。同時,針對AI運行過程中可能發生的各種潛在風險,應當事先予以充分披露並建立相應的評估程序。

  3.隱私與數據治理

  隱私和數據保護在AI整個生命周期的所有階段都必須得到保障。根據人們行為信息的數位化記錄,AI不僅可以推斷出個人的偏好、年齡和性別,還可以推斷出他們的性取向、宗教信仰或政治觀點。為了使人們能夠信任AI的數據處理,AI必須確保人們對自己的數據擁有完全的控制權,並且確保人們不會因為這些數據而受到傷害或歧視。

  除了保護隱私和個人數據,高質量AI還必須滿足一些額外要求。首先,AI應當採用高質量的數據集。當收集數據時,AI可能會反映出社會上的一些偏見,或者納入一些誤差或者錯誤。對於任何給定數據集的AI來說,這些問題必須在訓練之前予以解決。其次,AI必須保證數據的完整性。AI所用方法和數據集在每個步驟,例如計劃、訓練、測試和應用等等,都必須進行測試和如實記錄。最後,高質量AI必須嚴格管控其數據訪問。

  4.透明度

  首先,AI應當具有可追溯性。AI要如實記錄系統所做的決定及其生成決定的整個過程,包括數據收集描述、數據標記描述以及所用算法描述。其次,AI應當提供其組織化的決策過程、系統設計選擇的理由以及相應的應用理由,不僅要確保其數據和系統的透明度,還要確保其業務模型的透明度。再者,結合已有應用案例,AI的能力與局限應當以適當方式充分披露給不同的利益相關者。最後,AI應當是可識別的,以確保使用者知道他們與哪一個AI正在進行交互,並且知道由誰對該AI負責。

  5.多樣性、非歧視性和公平性

  AI所用數據集(包括用於訓練的數據集和用於實際應用的數據集)可能會受到無意識的偏見、不完整性和不良治理模型的影響。持續的社會偏見可能導致間接的或直接的歧視。當然,一些傷害也可能是AI開發商、製造商、供應商,甚至使用者,故意利用偏見或者從事不公平競爭造成的。諸如此類的問題,在AI開發之初就應當予以解決。

  為此,AI開發商在開發過程中應當建立多樣化的設計團隊,建立保障參與機制,有助於避免這些問題。同時,開發商不斷諮詢在AI生命周期內可能直接或間接受到系統影響的利益相關者,也有助於解決這些問題。另外,AI開發商應當全面考慮不同人群的能力和需求,確保AI具有易用性,並盡力確保殘疾人也能夠便利、平等地使用AI。

  6.社會與環境福祉

  對於AI的影響,不僅要從個人的角度來考慮,還應當從整個社會的角度來考慮。人們應當認真考慮AI對社會公共治理活動的影響,特別是那些與民主決策過程有關的情形,包括意見形成、政治決策、選舉活動等。此外,AI可以提高人們的社會技能,但同樣也會導致人們社會技能的退化,因此AI對人們社會技能的影響也應當予以充分考慮。

  為了確保AI具有可信任性,還必須考慮AI對人類和其他生物的環境影響。在理想情況下,所有人類,包括後代在內,都應當受益於生物多樣性和適宜居住的環境。這也同樣適用於目前全球都在關注的AI解決方案的可持續發展問題。因此,人們應當鼓勵AI的可持續性和生態保護責任。

  7.可追責性

  具有可追責性的AI,能夠有力提升人們對AI的信任。為此,應當建立責任機制,確保人們能夠對AI及其結果進行追責。AI的內部審核人員和外部審核人員對AI開展的評估以及相應的評估報告,是保障人們能夠對AI進行追責的關鍵。因此,AI應當具有可審核性並確保人們能夠容易地獲得相關評估報告。

  首先,AI的潛在負面影響,應當事先予以識別、評估、記錄並進行最小化處理。對於需求之間不可避免的權衡,應當以合理的方式進行解決並予以說明。其次,對於影響人們基本權利的那些AI應用程式,包括有關安全的一些重要應用程式,尤其應當確保其具有外部可審計性。當然,對於AI應用過程中發生的不公平的不利影響,應當提供可預期的、便利的、充分的補償機制。

  實施計劃

  為了確保本倫理準則能夠在AI開發應用過程中得到實施,歐盟委員會將在歐盟內部啟動有針對性的試點工作,同時將努力促進國際社會就「可信任AI」達成廣泛共識。

  1.在歐盟內部啟動試點工作

  為了確保本倫理準則的實施,歐盟委員會將在歐盟內部啟動有針對性的試點工作,目的在於獲得利益相關者的反饋。試點工作主要包括兩部分:(1)針對AI利益相關者以及公共管理部門開展評估和反饋;(2)組織歐盟成員國和不同利益相關群體之間開展持續協商和加深認識。

  到2020年初,對試點階段收到的各種反饋進行評估後,歐盟AI高級專家組將審查和更新本倫理準則。根據審查結果和實施經驗,歐盟委員會將評估實施結果並提出後續工作計劃。

  2.努力將倫理準則推向國際社會

  考慮到AI在數據流通、算法開發和產業投資方面的國際性,歐盟委員會將努力向全球推廣本倫理準則,積極促進國際社會就「可信任AI」達成共識。為此,歐盟委員會將積極開展以下工作:

  加強與志同道合夥伴的合作。一方面,積極探索本倫理準則與第三國(例如日本、加拿大、新加坡)倫理準則的融合程度,然後在此基礎上,為更大範圍內倫理準則討論做好準備。另一方面,嘗試探索非歐盟國家的公司和國際組織測試和驗證本倫理準則,從而為本倫理準則的「試點階段」做出貢獻。

  繼續在國際討論和倡議中發揮積極作用。主要包括:為G7集團和G20集團等多邊論壇做出貢獻;與非歐盟國家開展對話,組織雙邊和多邊會議;為國際標準組織的相關標準化活動做出貢獻;加強對公共政策的收集和傳播,與相關國際組織開展合作。

  (作者單位:中國應用法學研究所)

相關焦點

  • 歐盟發布人工智慧倫理準則,希望以「歐州優勢」邁向全球標準
    一篇FT的文章指出,大型技術巨頭們一次又一次的侵犯人權,這是為什麼要發布《歐盟人工智慧倫理準則》( 關鍵詞:EU's ethical guidelines on artificial intelligence)這一政策的重要原因。在人工智慧的發展上,歐盟已經落後於中國與美國。
  • 新冠疫情與人工智慧倫理準則面臨的新挑戰
    導讀全球抗疫背景下,人工智慧在醫療場景的應用不斷增加。然而,在新冠疫情中,已有倫理原則的局限性顯現,主要體現在不同倫理準則之間面臨衝突。本文將分析疫情背景下AI倫理準則面臨的新挑戰並探討對策。關鍵在於確保使用這些技術帶來的倫理、社會和政治問題得到充分解決。人權應始終得到尊重,隱私和自主性與安全的價值觀應當得到審慎權衡。」顛覆性技術帶來的倫理挑戰由來已久。早在新冠疫情爆發以前,相關討論就已經起步。2018年,歐盟委員會提出五大「可信賴的人工智慧」倫理準則,分別是自主性、有益性、預防傷害、公平性和可解釋性。
  • 如何規範人工智慧軍事應用?一文帶你透視美軍的人工智慧倫理準則
    導讀:2019年10月,美國國防創新委員會(Defense Innovation Board)發布《人工智慧準則:推動國防部以符合倫理的方式運用人工智慧的建議》報告。2020年2月24日,美防長正式籤署這一文件,使其成為美國防部在人工智慧倫理領域的官方政策。
  • 「管理科學」人工智慧體引發的倫理困境
    人工智慧的大範圍促使許多事件或案件出現主體判別困難的倫理問題。比如,無人駕駛車輛的突發情況急剎車問題,人工智慧的每一步都由算法規定,而算法確是由人來設定的,所以在突發問題的責任主體追究方面必然會出現倫理問題。同樣,在情感方面也存在倫理問題,當人工智慧的智能特徵越來越明顯,類人化程度越來越高,甚至產生了自主意識後,人類與人工智慧之間的感情關係將會引發新的倫理問題。
  • 人工智慧倫理三問:如何對待機器和自身的關係?
    (資料圖片) 當前,人工智慧浪潮方興未艾,在很多領域展示出巨大應用前景。然而,隨著人工智慧技術的不斷發展,它引發的倫理爭議也不斷出現 近日,中國發展研究基金會發布報告——《未來基石——人工智慧的社會角色與倫理》。針對人工智慧倫理問題,報告在提出一系列建議的同時,也希望推動問題的充分討論。
  • 推行醫藥企業倫理準則 塑造健康產業環境
    早在去年10月,中國化學製藥工業協會、中國醫藥保健進出口商會、中國外商投資企業協會藥品研製和開發行業委員會(RDPAC)等九大協會聯名對外發布了《中國醫藥企業倫理準則》,呼籲淨化醫藥市場。該《原則》 源於亞太經合組織(APEC) 在2012年9月提出的生物製藥領域的商業道德準則,即《墨西哥城原則》。
  • 騰訊研究院發布《科技向善白皮書2021》提出人工智慧倫理三大共識
    DoNews1月11日消息(記者 翟繼茹)近日,騰訊研究院與騰訊學院聯合發布了《科技向善白皮書2021》,後疫情時代科技如何發展、人工智慧與倫理關係、算法是否會「控制」我們的生活等一系列問題,在白皮書中被詳細探討。
  • 人工智慧面臨倫理困境
    > 關鍵詞:人工智慧;谷歌;機器人;倫理意識;無人駕駛汽車 作者簡介:   日前,已進行測試多年的谷歌無人駕駛汽車發生事故,致人受傷,這一事件再次將人工智慧牽涉的倫理問題推到風口浪尖。
  • 科學研究與社會責任——科研倫理問題面面觀
    歷史上,納粹的虐行激發了國際社會研究人員的協作,個別國家的失當做法促使各地改善監管工作,學術團體的反省和質詢能推動國際社會改進倫理標準。  《赫爾辛基宣言》影響深遠。有惡劣影響的重大歷史事件促成國際社會制定倫理準則。
  • 中國AI全景論文:關注AI發展帶來的倫理、法律和經濟問題
    論文寫道,根據中國新一代人工智慧發展規劃,要實現人工智慧造福人類社會的長遠目標,不僅要加大人工智慧的研發和應用力度,最大限度地發揮人工智慧的潛力,而且要更加關注人工智慧發展帶來的諸多倫理、法律和經濟問題。2019年6月,國家新一代人工智慧治理委員會發布了《新一代人工智慧發展負責任人工智慧治理原則》。
  • 基因編輯、人工智慧、自動駕駛等新技術遭倫理拷問,怎麼破?
    基因編輯、人工智慧等倫理爭議最受關注根據中國社科院組織的相關調查,在科技倫理領域最受關注的問題中,基因技術排在首位,機器人、人類增強、人工智慧等分列其後。作為一名生殖醫學科學家,北大第三醫院院長喬傑院士身處技術和倫理衝突的「第一線」。
  • 基因編輯、人工智慧、自動駕駛……新技術遭遇倫理拷問,怎麼破?
    >在科技倫理領域最受關注的問題中,基因技術排在首位,機器人、人類增強、人工智慧等分列其後。在人工智慧領域,倫理問題同樣相伴相生。微軟首席科學家埃裡卡·霍維茨一一例舉:AI系統的可信度、安全性、公平性、透明度,數據中深埋的偏見、歧視,系統的自動決策等不一而足。
  • 科技倫理是科學造福人類的導航儀
    科技倫理是理性的產物  科技倫理是科技創新和科研活動中人與社會、人與自然以及人與人關係的思想與行為準則,它不只是涉及科學研究中的倫理,也不只是科研人員要遵守科技倫理,還包括科技成果應用中的倫理。例如,手機App下載的同意條款和醫院治病時的知情同意等。如果把人類文明的演化當作一個永無止境的徵程,人類奔向更高文明的原動力就是科技和創新。
  • 一項跨國人類遺傳研究被指違反倫理準則及法律法規
    然而該國卻有些人認為此項研究忽視了當地的倫理準則、法律法規和自身需求。    研究發起人,丹麥哥本哈根大學地質遺傳學研究中心主任Eske Willerslev說,他帶領的團隊獲得了印尼政府的相關許可,並且遵循相關規定行動。然而印度尼西亞官方卻表示,該研究團隊並未獲得當地評審委員會的倫理批准,而且在沒有恰當文書的情況下從該國採取DNA樣本。
  • 如何與AI談倫理?
    對於人工智慧是否會毀滅人類,有人認為重要的不在技術,而是規則。在人工智慧這股不可逆的潮流中,前有阿西莫夫著名的機器人學三大定律,後有國際人工智慧界正在日益重視的倫理與法律問題,如IEEE全球人工智慧與倫理倡議、阿西洛馬人工智慧23條倫理原則相繼出現,顯而易見,人類渴望著科技的進步,但又恐懼科技的進步。
  • 科學研究怎樣守好倫理之門
    近些年,隨著基因編輯、人工智慧等新興科學技術快速發展,科學技術深刻地改變了甚至顛覆了自然進化法則、人類的生存方式、人類與自然的關係,擴展了人類對未來的想像和擔憂。倫理問題越來越凸顯,倫理的規制也越來越不可或缺。  中國科學院院士許智宏:近幾年,基因編輯技術在快速發展和優化的同時,其所帶來的倫理、安全、監管等問題也引發了廣泛討論。
  • 人工智慧與外交:新議題、新工具、新挑戰
    2018年,據俄羅斯《獨立報》報導,中國正在開發應用於外交領域的人工智慧系統樣機,用於信息分析工作。此外,美、德等多個國家也已經在外交領域中引入了人工智慧技術。可以說全球範圍內,關於人工智慧在外交中扮演何種角色的討論越來越受到關注。不過,相比於人工智慧在科技、工業、軍事、社會和倫理等領域受到的關注與討論,人工智慧在外交領域的討論進展相當緩慢,且沒有明確的分析重點。
  • 2018 年度人工智慧熱門事件大盤點:「悲喜交加」
    而這一年,人工智慧領域也頻頻湧現「人工智慧寒冬」的擔憂,不過更讓人涅一把汗的則是人工智慧所帶來的人員傷亡和道德倫理危機——Uber 無人駕駛測試車撞死行人事故震驚了全世界、Google Duplex 代替人類自動接打電話「以假亂真」引發了對 AI 道德倫理的廣泛熱議,近日歐盟正式發布的人工智慧道德準則草案,更是集中體現了人們對於人工智慧的恐慌與擔憂。
  • 英國金融監管局確認將推遲18個月執行歐盟PSD2中SCA準則
    英國金融行為監管局(FCA)已確認將推遲18個月再引入電子商務交易客戶安全認證(SCA)準則。根據歐盟PSD2(支付服務修訂法案第二版)規定中的SCA準則要求,從今年9月開始,歐洲的消費者必須通過至少兩種方式來驗證超過30歐元的在線支付:如密碼,指紋/面部識別碼和電話。
  • 國家衛健委回應「基因編輯嬰兒事件」調查:科研應按法律和倫理準則...
    該事件嚴重違反國家法律法規和倫理準則。國家衛生健康委重申,科學研究和應用活動應當本著高度負責任的精神,嚴格按照有關法律法規和倫理準則進行。國家衛生健康委將根據廣東省及有關部門需要,配合做好後續處置工作。