2020年12月18日晚上九點,在首屆清華大學人工智慧合作與治理國際論壇上舉行了「人工智慧與國際安全:挑戰與機遇」分論壇,由清華大學戰略與安全研究中心(以下簡稱中心)承辦。此次分論壇重點公布和通報了中心與布魯金斯學會聯合研究項目「人工智慧與國際安全」的初步成果,這個項目得到博古睿研究院和明德路基金會的共同支持。
清華大學戰略與安全研究中心主任、人工智慧國際治理研究院名譽院長傅瑩和布魯金斯學會主席約翰·艾倫(John Allen)圍繞會議主題做主旨發言。清華大學戰略與安全研究中心高級研究員、國際關係學系教授李彬對聯合研究的情況和中方專家關於智能武器風險和治理的思路做了詳細介紹。中國電科發展戰略研究中心高級工程師郝英好、中國軍控與裁軍協會副會長兼秘書長李馳江、博古睿研究院項目副總裁尼爾斯·吉爾曼(Nils Gilman)、布魯金斯學會研究員克裡斯·梅塞羅(Chris Meserole)、布魯金斯學會訪問研究員湯姆·史蒂芬尼克(Tom Stefanick)等項目成員,就人工智慧的攻擊禁區、數據安全風險、對國際法的挑戰以及中美在全球治理上的合作等問題分別發表觀點。分論壇由清華大學戰略與安全研究中心副主任肖茜主持。
約翰·艾倫在主旨發言中提到,中美在人工智慧等新興技術領域的戰略競爭日益明顯,圍繞著「人工智慧軍備競賽」的說法不絕於耳。為了避免不可控的軍備競賽,他希望「人工智慧與國際安全」項目中所討論的安全關切,能夠在政府層面對話和非官方論壇中得到進一步探討,特別是針對人工智慧所構成的國家安全風險,以降低這些風險發生的可能性。他認為現在正是規範技術發展和應用的關鍵期,呼籲美中兩國的政府和專家團體能夠抓住當下的機遇,圍繞降低人工智慧可能構成的國家安全風險的實際步驟達成共識。
傅瑩在主旨發言中重點介紹了中國關於人工智慧治理國際合作的主張,她說,今年11月中國國家主席習近平在二十國集團(G20)峰會上強調,中方支持圍繞人工智慧加強對話,倡議適時召開專題會議,推動落實G20人工智慧原則,引領全球人工智慧的健康發展。今年9月,中國國務委員兼外長王毅提出《全球數據安全倡議》,表示希望國際社會在普遍參與的基礎上就人工智慧的安全問題達成國際協議,支持通過雙邊或多邊協議的形式確認倡議中的承諾。他提出有效應對數據安全風險應遵循的三項原則,包括秉持多邊主義、兼顧安全發展和堅守公平正義等。
她說,中美關於人工智慧安全治理的聯合研究項目是一個成功的案例,雙方都從中受益良多,研究結果也有很好的參考價值。既然人工智慧武器化不可避免,我們需要尋找合適的治理路徑。人類必須汲取歷史教訓,例如對核武器的治理共識就發生的太晚,導致人類曾經面臨巨大威脅,網際網路的治理也沒有能夠在早期實現。大家希望這次對人工智慧,尤其是智能武器的治理,人類能走在技術變革的前面,充分認識其風險,早些達成治理共識。在討論人工智慧國際治理時,人們經常引用在核武器治理方面享有聲譽的Pugwash機構(帕格沃什科學和世界事務會議),這一機構在核軍控領域起到了積極作用。在推動人工智慧的國際治理方面,也可以參考這樣的方式,成立一個由科研人員、政府和政策專業人士組成的「人工智慧國際治理委員會」。
中方團隊牽頭人李彬在總結中方團隊研究的進展和發現時說,國際法的基本準則應該被納入到人工智慧武器的設計和部署之中,從而確保使用智能武器進行武力攻擊時符合國際法律規範。他談到武力法和武裝衝突法的運用,主張用國際法的基本原則指導人工智慧軍用技術的開發,同時還應該在人工智慧程式設計師和軍事操作人員中開展教育,讓他們更好地理解和在實踐中貫徹使用武力法中的相稱性原則和武裝衝突法中的比例原則。
在座談環節,專家就中美如何在人工智慧治理領域合作展開深入討論並表示,中美兩國是人工智慧大國,都有防範軍用人工智慧技術風險和完善治理的需求。人工智慧技術的濫用或者偏差有可能衝擊戰略穩定、改變交戰規則,抬高軍事風險。中美都有較強的風險管控需求和共同利益。因此,中美在人工智慧國際治理中有很大的合作空間。有專家指出,人工智慧在數據收集、算法訓練和戰場應用中,必須遵守國際法中的比例原則和區分原則,不能攻擊平民或民用設施,造成過多的傷害。中方專家提出採用數據收集的「紅綠燈」規則,禁止人工智慧武器攻擊民用目標,只能對完全確認的軍用目標發動進攻。這個措施可以使人工智慧更好地遵守國際法。
最後,專家們表示,包括中美在內的世界各國可以通過政策交流、互換文件、學者探討等多種方式,增信釋疑,實現在人工智慧安全問題上形成國際治理共識。