當前,人工智慧的軍事應用浪潮已不可避免,因此無論是應對技術還是倫理的挑戰,都應堅持探索與發展人工智慧技術,加強人工智慧的技術預測與評估,在充分試驗與分析的基礎上逐步推進人工智慧技術的軍事應用。
文/石海明 金寧
假如人工智慧被人類設計成戰爭的武器,那麼人間的最後一場戰爭會不會發生在人類和人工智慧之間?就像電影《黑客帝國》中的情節:人類最終陷入了一場對抗人工智慧的曠日持久的戰爭,由於不敵機器人,人類將電磁烏雲布滿整片天空,試圖切斷機器人的能源。然而,可怕的事情發生了,人工智慧將人類囚禁起來,當作它們的「生物電池」。
在人工智慧迅猛發展的背景下,科幻電影中的人機大戰、超級戰士等奇異詭譎的情節與場景越來越趨向現實,人工智慧的發展與應用正在逐步改寫現代戰爭的進化軌跡。當人工智慧用於戰爭,是否能更智能地控制戰爭,還是會「養虎為患」,將人類推向更恐怖的戰爭深淵?
AI催生軍事智能化
人工智慧對現代戰爭的影響主要體現在以下幾個方面:
首先,設計戰爭。可以說,設計算法就是設計戰爭。現代戰爭不僅涉及多源信息的採集和融合處理問題,更涉及有關作戰任務規劃的多層算法問題,因此對數據處理能力提出了巨大挑戰。而算法的實質在於群體智能,是類人機混合智能,相對於個體智能,它具有強集成性、大吸蓄性、高靶向性及易升級性。好的算法與優質問題、複雜場景及實踐迭代直接相關,能夠承載實戰的龐大數據量。作戰雙方通過利用算法,得以模擬和預演實戰,從而在多次實驗中調整戰法策略,將戰爭轉變為經過設計的實驗成品。
當前,美軍已正式提出「算法戰」概念,並組建「算法戰跨功能小組」,以推動人工智慧、大數據及機器學習等「戰爭算法」關鍵技術的研究。針對算法的探索,將是各國爭相競逐的重要領域,也是打開現代戰爭新局面的關鍵所在。
其次,輔助決策。以往戰爭中指揮員的決策,一方面來源於情報、偵察、監視等手段,另一方面受指揮員自身的經驗、靈感、聯想等主觀因素影響。而人機一體的決策手段則將「人腦」與「外腦」有機結合,為指揮員的決策提供了新參照,能夠彌補以往軍事信息系統的不足,從而構建起功能強大的網絡信息體系,提高軍隊的智能化評估和輔助決策能力。
自上世紀50年代以來,美、俄等軍事大國不斷發展指揮控制自動化系統,企圖增強信息優勢和決策優勢,如美軍研發出指揮、控制、通信、計算機、情報與偵察監視系統(C4ISR),推進「網絡中心戰」概念建設並建立針對網絡入侵的智能診斷信息系統。未來,人工智慧技術的運用將為戰爭決策進一步賦能。
第三,戰爭控局。古往今來,戰爭一直是人類的噩夢,造成巨大殺傷的武器成為了籠罩在人類上方的無形烏雲,實現戰爭在時間、規模、目標與結局等方面的可控是人類在戰爭中長久追求的目標。除運用條約、協議等政治手段之外,以往戰爭中的雙方難以真正實現戰爭可控,比如二戰初期德國利用「閃電戰」策略,但後來的戰爭卻演變成了曠日持久的消耗戰。另外,核生化武器造成的超乎預期的災難性後果,也顯示出在傳統技術基礎上實現戰爭可控的難度。
人工智慧技術有利於加強戰略籌劃,實現「知彼知己」的戰略態勢,提升作戰模擬推演的有效性,戰鬥雙方的戰爭設計與實驗有益於控制戰爭。另一方面,人工智慧促進武器裝備創新,智能化高技術武器裝備減少了非必要殺傷,客觀上為可控性戰爭提供了物質技術條件。
走向失控的風險
人工智慧技術對撬動軍事變革的作用不容小覷,但與此同時,戰爭中的技術、倫理、道德等一系列風險與挑戰也逐步顯現。
不少科幻電影已對人工智慧的威脅展開了討論。電影《機械公敵》中原本以保護人類為使命的機器人出現集體失序,對人類展開了殘暴攻擊;《西部世界》中機器人的內部系統不斷進化,最終反叛並傷害人類。由於目前人工智慧技術的發展局限,人工智慧的指揮系統容易在執行複雜程序的情境中失序,比如美軍在伊拉克戰場上的軍事機器人失控事件。
在人機協同作戰方式中,過度依賴人工智慧無疑增強了指揮系統失控的風險性,這就如同把槍交給了機器人,而當機器人不聽從人類指揮時,槍口對準的將可能是戰爭中的任何一方。因此人工智慧帶來的人機結合作戰方式必須將人置於主體地位,保證人類指揮員對系統的控制權。與此同時,建立應急預警機制與打造意外發生時的後臺程序也極為必要。
早在1942年,科幻作家阿西莫夫就提出了「機器人三大定律」,以規範機器人的行為並確保機器人對人類的附屬地位。目前這三大定律已逐漸成為機器人的非正式倫理規範。然而,人工智慧的倫理失範風險並沒有因此減弱。
在以往的戰爭法則中,人類之間的對抗如棋局一般保持相對平衡,戰爭雙方互相控制且對彼此的傷亡負責,而一旦加入人工智慧技術,人類的傷亡是否單純由機器負責?對機器的損傷是否需要人類負責?人類又能如何避免人工智慧成為無尺度暴力的工具?由此可見,人工智慧帶來的倫理挑戰不只是單純的倫理法則可以解決的,更需要人類對人工智慧本質的清醒深刻認識以及對人機關係的精準定位。
另外,人工智慧應用於戰爭始終存在走向暴力失控的風險,智能化武器是造成安全威脅的主要來源。2017年,包括特斯拉公司執行長埃隆·馬斯克和谷歌人工智慧公司聯合創始人穆斯塔法·蘇萊曼在內的116名世界領先機器人和人工智慧公司的領導人聯名發布了一封公開信,呼籲禁止發展致命性自動化武器,並阻止高科技軍備競賽。
人工智慧與自動化武器結合的產物主要是全自動武器系統,這意味著人工智慧的加入使得戰爭的殺傷難度顯著降低,以往戰場上的戰馬、鋼盔、刀劍、槍彈也許都不再需要,指揮官可能只需一個按鈕、一句指令就能達到理想的殺傷目的。在這種情況下,全自動武器一旦投入使用,戰爭的殺傷效率將超乎以往,武裝衝突迅速升級並擴大的可能性將難以預計。
應對策略
當前,人工智慧的軍事應用浪潮已不可避免,因此無論是應對技術還是倫理的挑戰,都應堅持探索與發展人工智慧技術,加強人工智慧的技術預測與評估,在充分試驗與分析的基礎上逐步推進人工智慧技術的軍事應用。
面對人工智慧的風險與挑戰,應當堅持三位一體的應對策略。
首先,搶佔智能科技高地。當前,人工智慧已成為各大國競相爭奪的科技高地,主要發達國家紛紛將人工智慧提升到國家戰略高度加以發展。美軍已將智能化無人系統作為「第三次抵消戰略」的顛覆性技術領域給予重點投資。美國空軍首席科學家辦公室頒布的面向2035年的《無人系統地平線》技術評估和預測報告,認為未來各類無人系統與作戰平臺的自動化、自主性和遠程遙控性能將隨著技術進步不斷取得突破。
未來,隨著超大規模計算、量子計算、雲計算、大數據等技術的進步,人工智慧的信息處理與控制技術將獲得極大發展,在現代戰爭中所佔的技術比重將顯著增加。在這樣的大背景下,唯有跟上智能科技發展步伐,及時制定人工智慧發展規劃與戰略,見之於未萌,識之於未發,才能把握戰爭形態變化趨勢,洞悉戰爭形態演變規律,實現克敵制勝。
其次,探索戰爭倫理規約。近年來,國際人工智慧界日益重視人工智慧中的倫理與法律問題,並推動相關技術標準及社會規範的研討和制定,如IEEE全球人工智慧與倫理倡議、阿西洛馬人工智慧23條倫理原則,中國的《新一代人工智慧發展規劃》也專門提出人工智慧倫理與法律的「三步走」規劃。在完善人工智慧戰爭倫理規範的過程中,應確保人類對智能化武器的控制權,將人機關係納入戰爭倫理的討論維度之中,針對人工智慧使用的特殊領域與戰場情境建立獨立的倫理評價體系,防範人類戰爭倫理與人工智慧參與後的戰爭倫理相混雜,將技術、倫理與法律等控制手段配合使用、高度融合。
最後,加強國際合作對話。美國生命未來研究所在2015年人工智慧國際會議上提交的一份信件指出,「如果主要軍事力量運用了人工智慧,那麼全球軍事競賽將不可避免,而最終的結果就是,人工智慧將成為下一個卡拉什尼科夫衝鋒鎗。美國運用人工智慧則必然招致報復和一場人工智慧大戰。」該信得到了17000多個籤名和2萬多個附議籤名。
值得一提的是,人工智慧風險的承受者不再只是單一國家,而是整個國際社會。無論是發展抑或遏制人工智慧技術在現代戰爭中的應用,國際間的合作對話都必不可少。各國應加強人工智慧技術與倫理層面的交流與溝通,建立起長期有效的對話機制,根據現有國際準則推進人工智慧相關研究,共同應對人工智慧的風險與挑戰。
(石海明系國防大學教員)
來源:2018年6月27日出版的《環球》雜誌 第13期
《環球》雜誌授權使用,其他媒體如需轉載,請與本刊聯繫
本期更多文章敬請關注《環球》雜誌微博、微信客戶端:「環球雜誌」