人工智慧技術在軍事領域的應用越來越受到各大國的重視,有望成為牽引新一輪軍事變革的關鍵技術。人工智慧的軍事應用可能會對未來戰爭模式和交戰規則帶來巨大甚至顛覆性的影響,從而對當前的國際法體系構成挑戰。目前,關於人工智慧軍事應用相關國際法問題的討論主要集中在致命性自主武器與人道主義法方面,人工智慧軍事應用對武力使用合法性、國家主權、防擴散等方面國際法的挑戰還有待於進一步引起重視。為此,需要從《特定常規武器公約》《武器貿易條約》等現有法律架構出發探索新的解決途徑,逐漸形成規制人工智慧軍事應用的國際共識與規範。
3.1 提高國際法管轄門檻,增加國家違反國際法的成本3.1.1 推動管控LAWS 的《特定常規武器公約》新議定書3.1.2 嚴格禁止戰略武器自主指揮與控制系統的研發與使用與以往大多數新興軍事技術不同,人工智慧技術並不專屬於某個作戰空間或領域,而是能夠應用於各領域並提升武器裝備性能的一種技術,甚至可以改變現有戰爭形態。根據一些學者的分類,人工智慧目前可以分為「弱人工智慧」和「強人工智慧」兩類,「弱人工智慧」 能夠借鑑人類的智能行為,以減輕人類智力勞動;「強人工智慧」則是達到甚至超越人類智慧水平的人造物,具有心智和意識、能根據自己的意圖開展行動。從目前來看,「強人工智慧」的出現依然較為遙遠,但基於大數據和深度學習的計算機視覺、語音識別、自然語言處理等「弱人工智慧」技術正在不斷地得到開發應用, 因此本文僅討論「弱人工智慧」的軍事應用問題。通過梳理現有文獻與案例可以發現,人工智慧的軍事應用主要集中在情報與偵察、作戰決策與指揮控制、自主武器系統、訓練與演習、作戰支援與保障等領域。
在情報與偵察領域,由於人工智慧在圖像、語音識別方面具有強大能力,其與各類傳感器的結合能夠大幅提升戰略與戰術偵察能力,提升衛星照片判讀、光學 / 電子偵察、水聲探測識別的效率。例如,美國國防部 2017 年啟動了Maven 項目,以實現計算機從視頻圖像中自主識別人員、車輛等目標,並計劃在後續將其集成在各類平臺上。當年 12 月,Maven 項目的原型系統已經部署在美軍中央司令部和非洲司令部的轄區進行試驗,並在一周時間內使目標識別準確率從 60% 提升至 80%。儘管該項目曾因合作方谷歌的退出而受到影響,但目前仍在美國國防部的重點支持下平穩推進。
在作戰決策與指揮控制領域,人工智慧因具有出色的數據處理、系統集成、高性能計算能力,被視為輔助甚至替代決策者與指揮員的工具。美軍目前提出的「聯合全域指揮控制」(JADC2)「馬賽克戰」「忠誠僚機」「分布式殺傷」等概念對人工智慧算法支持的任務規劃、態勢分析、作戰決策、指揮控制、通信傳輸提出了較高要求,以期加快決策速度並提高作戰效率,克服人力處理信息的局限性。
在自主武器系統領域,人工智慧使得傳統的遙控式無人武器開始向不受人工幹預的自主武器方向升級,這是目前人們關注人工智慧軍事應用問題的焦點。目前關於自主武器還沒有公認的定義。美國國防部認為,自主武器系統指的是「一旦啟動,可以在不受操作人員幹預下選擇目標並交戰的武器系統,它也包括受到人類監督的此種武器系統。」國際紅十字會也提出了類似的定義,並明確其應區別於自動武器 / 半自主武器① ,以及遙控武器。也有一些學者從人機關係角度出發,根據約翰·博伊德提出的OODA(觀察—判斷—決策—行動)循環,將自主武器分為半自主武器、有監督的自主武器和完全自主武器。從目前各國發展人工智慧軍事應用的公開資料來看,自主武器無疑是重中之重。
就包含半自主與完全自主的廣義範圍而言, 目前各軍事大國正在研發或部署階段的此類武器已涵蓋了防空系統、主動防禦系統、機器哨兵、制飛彈藥、巡飛武器等。此外,還包括自主無人機、無人車輛、無人艦艇、戰鬥機器人等主戰裝備,例如美國的 MQ-9 無人機、「海上獵手」 無人船,俄羅斯的「天王星 -9」戰鬥機器人、「涅列赫塔」無人戰車、無人版 T-14 主戰坦克, 以色列的「哈比」無人機,韓國的 SGR-A1 自動崗哨炮等。值得一提的是,除了常規武器, 俄羅斯還專門研發了具有自主能力的戰略武器, 如攜帶核彈頭的「波塞冬」(Poseidon)核動力無人潛航器。目前,上述一些裝備已經以集群編隊的方式進行了測試,甚至已被部署到戰場使用。
人工智慧技術還在訓練與演習、作戰支援與保障領域得到廣泛應用。這裡主要包括訓練模擬、計算機推演、網絡攻防、信息作戰、醫療救護、維修保障等用途。例如,美國國防高級研究計劃局(DARPA)正在推進「先進空戰演進」項目, 以對人機協同作戰提供訓練;而在DARPA 舉行的 Alpha Dogfight 人機空戰對抗模擬演習中,人工智慧以 5 ∶ 0 的比分戰勝了美軍 F-16 飛行員 。
新軍事技術的出現往往對戰爭模式和交戰規則帶來巨大甚至顛覆性的影響,從而對已有的國際法體系帶來了挑戰。針對這個問題,1977 年的《日內瓦公約第一附加議定書》在第36 條「新武器」明確了各國應當承擔的國際義務,即「在研究、發展、取得或採用新的武器、作戰手段或方法時,締約一方有義務斷定,在某些或所有情況下,該新的武器、作戰手段或方法的使用是否為本議定書或適用於該締約一方的任何其它國際法規則所禁止。」人工智慧的軍事應用當然也應遵循這一條規定。
近年來,人們已普遍認識到致命自主性武器(LAWS)對國際人道主義法帶來的嚴峻挑戰。2016 年中國政府向《特定常規武器公約》五審會提交了立場文件,呼籲從國際法層面對致命自主武器引發的人道主義問題進行規制。相關研究人員也就致命自主武器對國際人道主義法的區分原則、比例原則、責任歸屬等方面引發的問題展開了較為廣泛的討論。但是,在致命自主性武器與人道主義問題以外,更為廣泛的人工智慧軍事應用還可能在武力使用合法性、國家主權、武器擴散方面對現有國際法造成挑戰,由於其對國際安全與地區穩定具有重要影響,需要引起國際社會的同等重視。
2.1 對武力使用合法性的挑戰
目前的國際法已對武力使用的合法性做出了嚴格規定。《聯合國憲章》第 1 章第 2 條第 4 款規定:「各會員國在其國際關係上不得使用威脅或武力,或以與聯合國宗旨不符之任何其他方法, 侵害任何會員國或國家之領土完整或政治獨立。」 這一條款禁止了武力的使用,並受到聯合國會員國的普遍認可,在法律層面上有強制約束力。但在普遍禁止之外,國際法還針對兩種例外情況授予了使用武力的合法性,根據《聯合國憲章》第 7 章第 42 條和第 51 條,這兩種例外分別是:(1) 安理會授權以武力維持或恢復國際和平及安全;(2)會員國受武力攻擊時行使單獨或集體自衛。
從以往的經驗來看,由於使用武力的決策權一直牢牢地掌握在武器使用者的手中,新軍事技術本身幾乎不會對武力使用的合法性產生影響。但是, 隨著人工智慧開始逐漸被用在軍事決策領域,人類可能會有意或無意地將使用武力的決策權授予人工智慧系統。相關研究者常常以蘇聯研發的「死手」(或稱為「周長」)系統以及 1983 年「彼得洛夫事件」引發的意外核戰爭危機為例,提醒人們自主化決策與指揮控制系統的安全風險。
從國際法的角度來看,這種新的情況針對前面提到的武力使用的第二種合法例外——單獨或集體自衛帶來了挑戰。對於人工智慧的自主決策和指揮控制系統以及自主武器系統而言,在缺乏人工幹預時,如何判斷自衛的條件是一個較為困難的問題。目前的人工智慧技術在可解釋性、認知能力方面仍較為薄弱,因此無法像受過訓練的人類一樣能夠對模糊不定與複雜多變的情況做出適當判斷。
如果在邊境部署的自動崗哨武器,或在海空巡邏的無人機或無人艦艇,因為算法引起的誤判或是系統故障而對他國人員或資產主動發起攻擊,將直接違反國際法關於武力使用的規定,而且這種違背使用者意圖的非法武力使用也難以找到明確的主體來承擔法律責任。
此外,當應用於軍隊決策與指揮控制的人工智慧系統出現這種情況時,除了會產生更嚴重的國際法後果外, 還甚至會進一步引起意外性戰爭。
2.2 對國家主權的挑戰
人工智慧軍事應用對於受國際法保護的國家主權構成了侵蝕。與有人駕駛裝備相比,以無人機、無人潛航器為代表的一批人工智慧無人系統具有小型化、隱身性能強的特點,以及無需人工操縱且能夠執行長距離作業,因此極為適合完成滲透偵察任務。由於這些特點能夠隱匿身份而降低外交敏感性,一些國家開始更加大膽地使用此類裝備執行侵入性行動,這使得各國的領空和領海主權變得更加容易被侵蝕。
2015 年 8 月,中國漁民在海南三亞市海岸打撈到國外無人潛航器;2016 年 12 月,中國海軍在南海海域打撈到一艘美國無人潛航器,隨後移交美方;2019 年 6 月,伊朗聲稱擊落了一架入侵領空的美國無人機,加劇了荷姆茲海峽緊張局勢;2019 年 9 月,位於沙特腹地的原油生產設施阿布凱克(Abqaiq)油田遭到 18 架無人機突襲,使該國原油產量受到重大損失。 對此美國宣稱無人機歸屬伊朗,但聯合國的調查報告表示無法確認攻擊者的身份。2020 年,印度和巴基斯坦分別宣稱擊落了對方入侵本國領空的無人機。上述案例表明,在和平或危機時期, 一些國家越來越傾向於使用無人系統執行越境軍事行動,這對各國維護領土主權(主要是領空、領海)構成了威脅。
目前,對於軍用空中無人系統進入他國領空的問題,已有明確的國際法規範。《國際民用航空公約》第 1 部分第 3 條規定:「用於軍事、海關和警察部門的航空器,應認為是國家航空器。」「一締約國的國家航空器,未經特別協定或其他方式的許可並遵照其中的規定, 不得在另一締約國領土上空飛行或在此領土上降落」。該條約第 8 條針對「無人駕駛航空器」 也做出了規定:「任何無人駕駛而能飛行的航空器,未經一締約國特許並遵照此項特許的條件,不得無人駕駛而在該國領土上空飛行。」 這兩條明確禁止了軍用空中無人系統在未經許可的情況下進入他國領空。
但是,關於軍用無人艦艇的航行問題卻出現了一些法律爭議。首先,目前的國際法對於軍用無人艦艇的屬性未做出明確規定。《聯合國海洋法公約》第 29 條規定:「『軍艦』是指屬於一國武裝部隊、具備辨別軍艦國籍的外部標誌、由該國政府正式委任併名列相應的現役名冊或類似名冊的軍官指揮和配備有服從正規武裝部隊紀律的船員的船舶。」由於軍用無人艦艇不配備軍官與船員,且常常為了隱蔽身份而清除標識,其既不能被定義為軍艦,也不能被視為政府船舶,這種性質使其無法擁有上述兩種船隻在公海不受其他國家管轄的豁免權。在 2016 年南海無人潛航器事件中,美國聲稱其潛航器是一艘享有主權豁免的船隻,並與日本公開質疑中國海軍打撈活動的合法性 。
但是根據《聯合國海洋法公約》的上述規定,中國學者認為其並不享有主權豁免。其次,《聯合國海洋法公約》規定軍艦在他國領海的「無害通過權」不適用於軍用無人潛航器。《聯合國海洋法公約》第 19 條明確了違反「無害通過」的 12 種情形,包括「任何目的在於搜集情報使沿海國的防務或安全受損害的行為」和「進行研究或測量活動」,這兩種活動正是目前軍用無人潛航器的主要任務。
另外,第 20 條規定「在領海內,潛水艇和其他潛水器,須在海面上航行並展示其旗幟。」 這一點是無人潛航器在偵察任務中難以做到的,更不用說一些國家為了避免承擔責任而故意隱藏其標識。因此,儘管美國軍艦常常以「無害通過權」為理由進入其他國家領海實施「自由航行計劃」,但使用軍用無人潛航器執行這一任務無疑是違反現行國際法的。這些問題需要得到國際社會進一步的明確與重視。
2.3 對國際武器貿易規範的挑戰
隨著人工智慧技術的發展,其研發成本將不斷降低,這有利於相關技術及產品的擴散。從現實情況來看,無人機、智能彈藥已經成為了國際軍貿市場的熱點產品,亞塞拜然和亞美尼亞的武裝衝突進一步證明了這種武器的軍事價值。由於人工智慧武器能夠高效殺傷敵人並能夠大幅減少本國人員傷亡,它可能會降低戰爭成本,從而降低戰爭門檻,促使國家更傾向於使用武力解決爭端;而這又可能會反過來促進人工智慧武器系統的擴散,加劇各國軍備競賽,並破壞地區安全與穩定。
目前,國際社會已經形成了對核、生物、化學、飛彈等大規模殺傷性武器擴散的管控機制,由於禁止擴散大規模殺傷性武器已經成為各國接受的規範,人工智慧武器系統將主要以常規武器為平臺進行擴散,這對規範常規武器貿易的《武器貿易條約》將構成新的挑戰。
《武器貿易條約》作為首個聯合國框架下規範常規武器貿易活動的國際條約,為增強國際武器貿易透明度、打擊非法武器轉讓提供了具有法律效力的國際標準。該條約主要依靠各締約國完善國家管制制度,對武器出口的最終用戶和最終用途進行審查,以防止出口的武器被用於違反國際法的目的。《武器貿易條約》要求各國禁止批准出口可能用於戰爭罪行、恐怖主義、有組織犯罪的 8 類武器裝備,包括坦克、裝甲戰車、大口徑大炮、戰鬥機、攻擊直升機、戰艦、飛彈與飛彈發射器、輕小武器等, 而這 8 類武器都可以作為人工智慧武器系統的平臺。
但是,由於人工智慧技術的軍民兩用性質,可以作為插件存在的人工智慧模塊尚未受到條約的重視,某些人工智慧技術甚至能夠作為民用品出口,完全規避《武器貿易條約》對最終用途的約束,這有可能進一步強化相關武器的交易與濫用,導致此類武器或技術向恐怖主義或犯罪組織非法擴散。因此,如何規範武裝無人機、戰鬥機器人等自主武器系統的轉讓, 限制其擴散對地區安全穩定與人道主義的負面影響,為現有常規武器貿易管控機制提出了新的問題。
當前,對人工智慧軍事應用帶來的國際法挑戰較多的討論聚焦於人道主義問題,尤其是對致命性自主武器(LAWS)違反國際人道法對 非作戰人員進行殺傷的問題。然而,人工智慧作為一種變革性技術,其對國際法的挑戰本身具有更深層次的含義。如前文所提,人工智慧技術對國際法的挑戰主要體現於兩個方面:一是變革技術的出現降低違反國際法的成本;二是核心議題涉及當前國際法所未能覆蓋的領域。因此,本文擬從這兩個層面討論完善相關國際法的途徑,討論如何提高相應國際法門檻、確立新的國際法規則。
具體而言,LAWS 的應用以及戰略武器自主指揮控制系統的發展主要降低了國家違反國際法的成本,通過模糊責任主體、對國際法概念進行特定解釋可以讓部分國家在使用武力、侵犯他國主權等問題上擁有一定的「靈活性」, 對此,本文認為應當在《特定常規武器公約》框架下規範 LAWS 的應用並禁止戰略武器自主指揮控制系統的應用,形成類似「核禁忌」的國際共識;而人工智慧武器的貿易問題涉及的是國際法上的「灰色地帶」或者「空白地帶」。
如果作為軍用品,無疑,其可以受到《武器貿易條約》的約束。但是,因為該技術軍民兩用之間界限的模糊(部分民用人工智慧技術完全可以應用於軍事領域),完善《武器貿易條約》, 重新對人工智慧技術的軍事性質進行界定,進而限制作為武器模塊的人工智慧技術的擴散成為當下國際法亟待解決之事。
3.1 提高國際法管轄門檻,增加國家違反國際法的成本
3.1.1 推動管控LAWS 的《特定常規武器公約》新議定書
對於 LAWS 而言,當前的發展仍然處於初步階段,且不存在完全脫離人控制的全自主武器,各國不具有緊迫的動力和意願來限制 LAWS。因此,想要馬上實現一份有約束力的法律文書是較為困難的。但是自 2014 年起,各國開始在《特定常規武器公約》框架下對 LAWS問題進行討論,並已舉行了 8 次專家組會議。① 2018 年,政府專家組在關於管控 LAWS 的指導原則中建議:「應確保根據適用的國際法在《特定常規武器公約》的框架內對發展、部署和使用任何新武器系統問責,包括使這類系統在人類指揮和控制的責任鏈中運作。」[7] 中國政府表示「支持在《特定常規武器公約》框架下,繼續深入討論『致命性自主武器系統』問題,並談判達成國際法律文書」。
從現存《特定常規武器公約》的框架和實施效果來看,將 LAWS納入管轄存在一定積極意義並具有高度可行性。就公約本身而言,其設立之目標是制定新規則保護平民免受武裝衝突中武器使用的傷害(尤其是不斷迭代的新式武器),並且保護戰鬥人員免受不必要的傷害。因此,公約現存的議定書中涵蓋了產生不可檢測碎片的武器、地雷餌雷、燃燒武器、雷射致盲武器,這些武器的共同點在於反人道主義與過分殺傷,這點與限制 LAWS 的初衷是高度相似的。
LAWS 可能將殺傷範圍擴大至平民,同時,如果缺少人的幹預,「濫用火力」現象將會成為常態。通過新議定書的形式將 LAWS 納入《特定常規武器公約》,不但符合公約保護人道主義的目的, 也便於直接藉助現有框架凝聚國際社會共識。而從《特定常規武器公約》實施的經驗來看,儘管履約基本依靠成員國的自我約束,但各項議定書對特定武器的限制在普遍程度上受到了國際社會認可, 並形成了一定程度的國際規範,使得大部分國家在研發、部署和使用相關武器時都採取了較為謹慎的態度。因此,若能在《特定常規武器公約》下達成關於 LAWS 的新議定書,將有利於在法律層面上對 LAWS 的濫用進行約束。
3.1.2 嚴格禁止戰略武器自主指揮與控制系統的研發與使用
與 LAWS 相比,將人工智慧技術應用於戰略武器的指揮與控制系統所帶來的是各國都難以承擔的「相互摧毀」的風險。蘇聯的「死手」 系統可以看成是戰略武器自主指揮與控制系統的某種前身,但這類系統本質上是冷戰核軍備競賽高峰期的產物。在全球化的今天不應具有任何存在的價值。
在這一問題上,美國軍方已有相關考慮,現任美國參謀長聯席會議副主席約翰·海頓(John Hyten)曾表示,一旦使用人工智慧的計算機系統能夠全面運轉,五角大樓應考慮採取安全防範措施,確保人類而非機器掌控使用核武器的決策。
但是,即使是人類參與決策,人工幹預也並不能完全避免類似系統出現事故性發射,而且難以防範外部網絡攻擊引發的系統失靈,因此應全面禁止研發和部署戰略武器自主指揮與控制系統。目前,還沒有國際條約對這種系統進行限制,相對可以借鑑的是《不擴散核武器條約》《禁止生物武器公約》和《禁止化學武器公約》。這三個條約所限制的都是國際社會公認應避免使用的武器,並具有嚴格的法律約束力和道德禁忌規範。由於後果的不可預測性以及意外事故的災難性,戰略武器的自主化性質較核武器擴散或持有、化學武器與生物武器的使用等行為可能更為惡劣。
因此,在嚴格禁止相關系統的開發、部署和使用方面,大多數國家擁有共同的利益,所以有必要從國際法的層面對此進行討論並形成有約束力的規則。在此基礎上,還需要將其從法律層面擴展到道德禁忌層面,在國際社會形成拒絕使用此類武器的共識與規範,禁止賦予人工智慧系統對戰略武器的指揮決策權限。
禁忌是促進軍備控制發展的重要因素,儘管在某些時候,禁忌可能並沒有馬上形成國際規約,但是其仍能通過無形壓力對國家與非國家行為體的行為作出限制 。而禁忌的形成部分依賴於宣傳的作用,因此,在明確國際法對相關系統發展的限制的同時,國際社會也應當注意對其可能帶來的災難性後果進行充分的討論。
3.2 填補國際法空白領域,確立國際法新規則
相較於人工智慧武器的使用,其擴散問題是當前國際法上的「灰色地帶」。這並不是說當前國際法沒有對武器貿易進行約束,只是人工智慧武器的貿易與常規武器的貿易具有較大的差異,且這種差異暫時還未引起國際法層次的重視。
《武器貿易條約》目前的監管對象是國際主流的八大類常規武器。從這個角度而言,人工智慧武器的貿易本也應在該條約的限制之下, 但人工智慧技術的軍民兩用性質為其監管帶來了障礙。其實,在《武器貿易條約》形成的過程之中,各國已就軍用技術轉讓問題進行過激烈的辯論,即貿易的限制是否應當僅僅局限於武器本身,軍品彈藥、零部件和技術是否也應當一併被納入條約的保障範圍之內 。
但是當時的主要反對意見認為彈藥的數目巨大、技術難以被監測或是界定,因此最終條約並沒有涵蓋這些部分。而人工智慧技術的出現可以說成為國際法相關領域的盲區。人工智慧技術可以作為民用技術進行轉讓,但在實際運用中被用於軍事目的。
針對這一問題,應當確立新的關於人工智慧軍用技術轉讓的國際法規範。對於智能武器而言,算法和用於訓練算法的數據集才是本體, 而且其數據集在一定程度上能夠區分軍用和民用兩種用途。因此,鼓勵各國增強對智能武器貿易的透明度迫在眉睫。為了有效打擊智能武器的非法擴散,應在《武器貿易條約》框架下探索規範軍用級算法與數據集的標準,並藉助條約的年度報告與信息交流機制提升締約國相關貿易活動的透明度,進而形成類似《塔林手冊》《聖雷莫國際海上武裝衝突法手冊》具有「軟法」 性質的國際文件或準則,逐漸擴大國際共識, 推動將智能武器納入《武器貿易條約》的管控範圍。這些工作應該成為各國推動《武器貿易條約》進程努力的下一步重點方向。
綜合而言,規範人工智慧的軍事應用一方面需要各國進行觀念上的革新,認識到人工智慧武器與傳統武器的區別,同時,這也需要各國進一步加強合作,為相關算法與訓練數據制定標準,形成廣泛的國際共識。
國際法是否能塑造國家的行為?對於很多現實主義國際關係學者而言,類似的問題似乎是偽命題。誠然,在無政府體系下,大部分國際法因缺乏強制約束似乎不過是一紙空文。但是,國際法的作用往往是長期而潛移默化的。規範的形成本身並不需要強制執行。
當前,技術發展往往先於觀念的革新。人工智慧已被認為是變革性的國家安全技術,可以與核武器、計算機等相提並論。這種新技術的出現以及軍事應用既對現行的國際法帶來了多方面的衝擊,也使當前國際法出現了更多的空白與模糊地帶。針對這些問題,本文認為, 可以從提高國際法門檻、確立新的國際法規範兩個層次進一步完善該領域的國際法規則,並通過限制 LAWS 使用、禁止戰略武器自主使用以及加強對人工智慧武器擴散的管控三種具體措施緩解人工智慧軍事應用對國際法帶來的新挑戰。
引用本文:李享 , 羅天宇 . 人工智慧軍事應用及其國際法問題 [J]. 信息安全與通信保密 ,2021(1):99-108.
李 享,博士在讀,主要研究方向為軍備控制與國際安全;
羅天宇,博士在讀,主要研究方向為地區秩序與國際法。
選自《信息安全與通信保密》2021年第1期(為便於排版,已省去原文參考文獻)
網絡強國建設的思想庫
安全產業發展的情報站
創新企業騰飛的動力源