導讀
2020年12月18日,清華大學人工智慧國際治理研究院名譽院長傅瑩在當天舉辦的首屆清華大學人工智慧合作與治理國際論壇上發表講話。
她呼籲在人工智慧領域建設包容性強的國際治理委員會,共同去研究、探討、吸納各方面好的建議和意見,形成共同的國際規範。以下為講話全文。
傅瑩:
尊敬的主持人,各位嘉賓,大家好!感謝主持人的介紹,上午大家談到宏觀的看法和主張。 我特別想呼應一下許多人談到的,尤其是聯合國副秘書長法布裡齊奧·霍奇爾德、外交部國際經濟司司長王小龍和科技部戰略規劃司司長許倞他們談到的,關於構建人工智慧國際治理體系和機制的重要性和必要性。希望能在人工智慧領域建立包容性很強的國際治理委員會通過共同探討、研究、吸納好的意見和建議,形成共同的國際規範,這是非常必要且緊迫的。
下面我主要從最近中美學者「人工智慧與國際安全治理」合作項目的角度,談談這個問題。論壇開始之前發布了我和美方項目牽頭人John Allen介紹研究成果的文章,今晚9點在關於《人工智慧與國際安全:挑戰與機遇》的第三個分論壇上,中方團隊的李彬老師會作更詳細的介紹,歡迎大家去聽。
中國在人工智慧治理問題上向國際社會釋放了清晰的合作信號。今年11月,習近平主席在G20峰會上強調,中方支持圍繞人工智慧加強對話,倡議適時召開專題會議,推動落實G20人工智慧原則,引領全球人工智慧的健康發展。我理解,今天這個論壇也是依據這個精神召開的。
今年9月,中國國務委員兼外長王毅提出《全球數據安全倡議》,表示希望國際社會在普遍參與的基礎上就人工智慧的安全問題達成國際協議,支持通過雙邊或多邊協議的形式確認倡議中的承諾。他提出有效應對數據安全風險應遵循的三項原則,包括秉持多邊主義、兼顧安全發展和堅守公平正義。
確實,技術革命往往伴隨不可預知的安全挑戰,在這方面,國際關注的焦點之一是智能武器的道德和技術風險。清華大學戰略與安全研究中心與多家國際機構圍繞這個問題開展了研討,包括與美國布魯金斯學會的專家學者進行的三輪系列研討,結合國際軍控經驗,尋找管控智能武器風險和國際安全治理的路徑。
專家們梳理了智能武器可能帶來的風險。一是由於人工智慧技術不完善,智能武器可能導致更大的連帶傷害。二是智能武器的訓練需要大量數據,數據的汙染和形成的偏見可能導致嚴重後果。三是人機協同的挑戰,機器在可解釋性、學習性、常識性等方面的不足有可能放大發生衝突的風險,等等。
那麼,既然人工智慧武器化不可避免,專家們研究的方向是尋找合適的治理路徑。大家都認為,人類必須汲取歷史教訓,例如對核武器的治理共識就發生的太晚,導致人類曾經面臨巨大威脅,網際網路的治理也沒有能夠在早期實現。大家希望這次對人工智慧,尤其是智能武器的治理,人類能走在技術變革的前面,充分認識其風險,早些達成治理共識。
大家提出,需要採取軍事克制態度,限制智能武器的損害範圍,這一點也需要反映在公共教育當中。在路徑方面,最重要的是如何使智能武器的發展和使用與現行國際法基本原則保持一致,包括《聯合國憲章》和武裝衝突法裡面的相關原則,都是討論的重要依據。有中方學者主張建構關於人工智慧軍事行動的國際規範,切實保證人在智能武器使用中的決定性作用等等。
誠然,這都是學術層面的探討,參加項目的專家們都撰寫了專題論文,可以提供給決策部門參考,這些路徑是否可行,還需要經過大量的政策研究和論證。
這兩年中美關係出現緊張狀況,但是這個項目的研討並沒有受到大的影響,充分顯示了兩國學界的專業精神和對人類共同命運的責任感和使命感。專家們認識到,現階段是構建人工智慧國際安全規範的關鍵窗口期,希望兩國抓住這一難得的歷史性時機,制定人工智慧通用規範。
中國對人工智慧的發展、應用乃至治理都是高度重視的。2017-2018年間,中央政治局分別圍繞大數據和人工智慧進行了兩次集體學習,習近平總書記指出:「要加強人工智慧發展的潛在風險研判和防範」,要「確保人工智慧安全、可靠、可控。」
中國在治理和立法方面也邁出實際步伐。例如,2018年中國國家標準化委員會發布《人工智慧標準化白皮書》;2019年國家新一代人工智慧治理委員會發布了8條治理原則;2019年國務院頒布了《兒童個人信息網絡保護規定》,加強對未成年人的信息保護;2020年經全國人大通過頒布的《民法典》中對保護個人隱私做出明確規定,要求不得洩露、出售或非法向他人提供個人信息等。
總之,目前中美兩國是人工智慧技術研究和應用發展最快的國家,兩國需要也有條件加強協調與合作。近年其他許多國家學界也表現出對人工智慧應用的安全擔憂,說明這是人類共同的難題,不是一國兩國能夠解決的。中美開展對話與合作至關重要,將能夠為全球合作貢獻智慧。我希望和相信這不是一場「零和遊戲」,人工智慧最終應使得全人類受益。