【講武堂】
作者:袁藝(軍事科學院戰爭研究院戰爭設計研究所博士後)
黨的十九大報告指出,加快軍事智能化發展,提高基於網絡信息體系的聯合作戰能力、全域作戰能力,有效塑造態勢、管控危機、遏制戰爭、打贏戰爭。2017年7月,國務院印發實施《新一代人工智慧發展規劃》,提出要強化新一代人工智慧技術對指揮決策、軍事推演、國防裝備等的有力支撐,以人工智慧提升國防實力,保障和維護國家安全。可以預見,軍事智能化作為新一輪軍事變革的核心驅動力,將深刻改變未來戰爭的制勝機理、力量結構和作戰方式。軍事智能化的快速發展,不僅對軍隊發展戰略、裝備體系、組織形態、作戰理論等各個方面產生廣泛而全面的衝擊,更深層次的是對人們的戰爭觀產生重大影響。
光明圖片/視覺中國
資料圖片
第二十屆北京科博會上的各款智慧機器人成為此次展會上一道亮麗風景。圖為中型排爆機器人。光明圖片/視覺中國
1、在未來戰爭中發揮決定作用的方式 將發生巨大改變
毛澤東認為:「武器是戰爭的重要的因素,但不是決定的因素,決定的因素是人不是物。」在未來智能化戰爭中,這樣的斷言會不會過時呢?當大量高度智能化的自主武器走向戰場直接交戰時,人在戰爭中的主體地位是否發生改變?人的作用還是決定性的嗎?這些問題需要辯證看待。
在未來戰爭中,主觀能動性不再是人的專利,智能武器也具有「有限主觀能動性」。人的能動性與無機物、有機生命體、高等動物的能動性有別,稱為主觀能動性。其特點是通過思維與實踐的結合,自覺地、有目的地、有計劃地反作用於客觀世界。智能武器的出現和發展,使得武器具備了人賦予的「有限主觀能動性」,這是武器發展史上質的飛躍。未來戰爭中,武器也具有人提前賦予的「靈性」,不再是冷冰冰的機械。
但這不會改變人在未來戰爭中的決定作用。戰爭中形成和提出思想、計劃、戰略、戰術等,正是人的主觀能動性所擅長的,在相當長一段時間內,智能武器的「有限主觀能動性」還不能與人的主觀能動性相比,在多數情況下,後者還不能取代前者。正如自動步槍從來就不是自動發射一樣,智能化無人化的戰爭也並非無人參與,而是「平臺無人、系統有人,前線無人、後方有人,行動無人、指控有人」。在很多情況下,人仍然是不可替代的,特別是那些打打停停的「政治軍事仗」,更是需要人來精心把握打停時機、戰爭規模和強度。隨著未來強人工智慧技術的突破,智能武器的「有限主觀能動性」肯定會進一步提高,但依附於人、聽命於人的狀況不會根本改變,更不可能由「人指揮槍」轉變成「槍指揮人」。
當然,我們應看到,人在未來戰爭中發揮決定作用的方式將發生巨大改變。隨著戰爭形態不斷向高級階段演進,戰爭對人的要求,由以體能為主,到以技能為主,最後發展到以智能為主。未來戰爭中,人進一步退居幕後操控戰爭,對人的體能和技能要求降至最低,人的智能成為贏得戰爭的關鍵。人的決定作用,除了表現為實施戰爭外,將更多地表現為設計戰爭。人在戰爭中的角色定位,由戰爭實施者轉變為戰爭設計者。人的作戰思想更多地以軟體和數據的形式被提前物化到智能武器中去,在戰爭中由智能武器來貫徹人的作戰意圖,達成預定作戰目的。隨著智能武器的大量出現,人與武器的結合方式、手段、效率也將發生極大變化。人與武器的結合方式由直接操作向間接操作轉變,其操控方式將由人類直接操作模式、人類協助模式、人類授權模式、混和-倡議模式、完全自主模式、機器自適應模式的順序逐步升級發展。人除採取手控方式外,還會採取觸覺感知、聲音識別、腦機接口等多種方式操控武器。特別是「腦控技術」的發展,用腦電波直接控制武器將成為現實。人對武器的控制流程將由傳統的「大腦-神經-手-武器」簡化為「大腦-武器」。
2、未來戰爭中,暴力不表現於殺戮,但其暴力性不會改變
未來智能化戰爭的制勝機理和作戰思想,正在由殲滅敵有生力量向癱瘓敵作戰體系轉變,從軍事哲學上講,這是否改變了戰爭的暴力性呢?未來戰爭是不是正在走向「慈化」呢?對這些問題需要具體分析。
可以肯定地回答,未來戰爭的暴力性不會改變。不管戰爭形態發生多大變化,但戰爭仍然是流血的政治,是政治集團之間的暴力對抗這一本質沒有改變。暴力對抗是戰爭的質的規定性,是戰爭區別於他事物的根本特徵,如果失去了這點,就不叫戰爭了。之所以有人認為未來戰爭的暴力性將被改變,是因為很多人把暴力等同於殺戮,認為未來戰爭中的殺戮減少了,戰爭的暴力性就自然消失了。克勞塞維茨認為:「戰爭既然是迫使對方服從我們意志的一種暴力行為,它所追求的就必然始終是而且只能是打垮敵人,也就是使敵人無力抵抗。」傳統戰爭中,人與武器通常是緊密結合在一起的,人在戰鬥力就在。不消滅敵人,敵方軍隊就不會喪失戰鬥力。所以只有人被消滅了,敵方才會失去抵抗意志,才能服從己方意志。從這種意義上講,暴力確實就是殺戮的代名詞。
但在未來戰爭中,暴力性不一定要通過殺戮來實現,暴力不等於殺戮。原因有兩條:一是人與武器的分離。智能武器作為人的「替身」一旦被消滅了,接下來一方如果不放棄抵抗,就會被另一方的智能武器消滅。通過消滅敵方武器,而不用消滅敵人肉體,就可達到使敵方無力抵抗的目的。二是非致命武器的增多。隨著武器威力控制技術的發展,以及新機理新概念武器的出現,使敵人喪失抵抗能力和抵抗意志的手段越來越多,可以很方便地選擇非致命手段來實現戰爭目的。
「消滅敵人,保存自己」是戰爭的直接目的。在未來戰爭中,消滅敵人與保存自己這一對立統一的矛盾關係將有新的變化。在以前的戰爭中,消滅敵人和保存自己是互為前提的。要想保存自己,就得消滅敵人,但要消滅敵人必須主動出擊,又容易暴露自己,難於保存自己。過於強調保存自己實施消極防禦,又會處處被動而無所作為,難以消滅敵人,最終會被敵人消滅。智能武器的出現,最大限度地解決了以往戰爭中既要消滅敵人,又要保存自己這一令人糾結的矛盾。人在後方遙控指揮機器人作戰,可以在完全地保存自己的同時,有效地消滅敵人。而且,消滅敵人的內涵也在發生變化。在傳統戰爭中,由於人與武器在實體空間上緊密地結合在一起,要解除敵人的武裝,就難以避免地傷及敵方的肉體。正如拿破崙所說:「我只看到一點,那就是敵人的大量軍隊,我力圖消滅他們,因為我相信,只要把軍隊一消滅,其他的一切都會隨之而土崩瓦解。」無人操控武器的方式,使得解除敵人的武裝可以不傷及敵人肉體,消滅敵人可以更多地強調消滅敵人的武器而不是敵人的肉體。
3、形機器人的出現,可能催生一整套新的戰爭交戰法則
未來,以強人工智慧為內核驅動的高智能化武器出現後,會引發人們對「人的本質」這一經典哲學問題的重新思考。馬克思曾說過,人的本質是一切社會關係的總和。人是由類人猿進化而成的,能製造和使用工具進行勞動,並能運用語言進行交際的動物。不難看出,人是社會性和自然性的統一。截至目前,人就是人,機器人就是機器人,二者界線非常清楚。但從21世紀開始,這一切發生了改變。一位以色列學者在其著作《從動物到神:人類簡史》中談到,現代科技的驚人成就將「首度改變長達40億年的進化過程。直到今天,生物進化都取決於自然選擇的緩慢過程。但從21世紀開始,進化將受到人類的影響,因為人類已經開始創造並操控生命」。
在未來戰爭中,一方面,人類將運用基因改良、外骨骼系統、腦機接口、藥物增強等技術手段,打造出能力遠超普通人類的「超級士兵」;另一方面,人造機器人又在不斷地模仿人,在智能上與人類的差距不斷縮小,未來的人形仿生機械人,與人不但形似而且神似。在這兩方面因素的綜合作用下,使得生命體與非生命體、人與機器人的界線日益模糊。
從人的自然性上難以判斷區分人與機器人。人形機器人與普通人從外表上看,可能沒有任何區別。從人體內部結構看,未來運用納米技術製造的人工心臟、人工肺、人工肝臟、人工關節等各種人造器官,能夠代替人的大多數器官。人形機器人為了更好地模仿人,也可能大量採用人造肌肉,甚至人造器官來製造軀體。人作為動物可以自我繁殖的特性,目前仍可以作為區分人與機器人的明確標準,但隨著3D列印的興起,未來智慧機器人完全可以採用這一技術進行「自我繁殖」,製造出自己的複製品或「進化」出更高級的「後代」,從而具備以往自然生物才具有的進化能力。人與機器人在機能結構上的日益模糊和接近,使得人的自然性已經無法構成判斷區分人與機器人的可靠標準。
按人的社會性來判斷區分人與機器人也極為困難。人可以進行語言交流,人具有思想、意志和情感,人以社會組織形式勞動生產和分工合作,人具有團隊精神和合作意識等。從哲學上講,正是人類的這些社會性特點,構成了人與動物、機器人的本質區別。然而,隨著智能化的發展,智慧機器人也可能逐步具備這些特點。當人類在完成手、足、眼、耳等自身器官功能的拓展放大,試圖對人類大腦功能進行拓展放大,以完成人類模仿自身的「最後一塊拼圖」時,人類遇到了自己製造的迄今為止最高級的工具——電腦的挑戰,這也可以說是人類面臨的最大挑戰。20世紀50年代,英國科學家圖靈就預言:「機器也能思維。」圍棋是人工智慧的試金石,當阿爾法狗戰勝人類棋手之後,圍棋大師也不得不嘆服承認:電腦更接近「圍棋之神」。這些人工智慧發展的標誌性事件表明,電腦在智力上正飛速地追趕著人類,而人類智力水平的自然進化速度遠遠趕不上電腦的進化速度。從某種意義上講,人類科技革命,最終革掉的可能是人類自己的命。
截至目前,人和機器人還有一條重要的區別,就是人不能永生。在醫學不發達的時代,人的死亡是身體死亡和腦死亡的統一。隨著現代醫學的進步,如今人也有可能出現腦死亡,但身體未死亡,即處於「植物人」狀態。隨著認知神經科學的發展,人的實時思維狀態和記憶信息,可以像數據文件一樣被讀取和下載,並可隨時傳送到另一個人腦或超級電腦中,從而出現人的軀殼已消散,但思維意識還存在,人作為自然人雖已死亡,但作為社會人將得到「永生」的現象。人類還可以採用3D列印技術隨時列印出自己的物理軀體,或運用克隆技術複製一個與原來的自己一模一樣的人,再把自己的「思想文件」下載到新的軀體裡,從而實現從肉體到精神的「重生」。可以預見,在不遠的將來,如何確定人類個體的存在性,如何界定人的死亡,將成為一個難以回答的哲學難題。
綜上所述,在未來戰爭中,如果不能從哲學高度對人形機器人,是人還是機器人作出根本性的判斷區分,那麼在目標性質判定、戰俘處置、戰爭罪判決等問題上,就會因為不知道處理對象究竟是不是人類而糾結和無所適從。如果把人形機器人作為有別於自然人和機器人的第三類事物——「人機綜合體」,就必須為其相應地制定一整套道德倫理規則和戰爭交戰法則。
《光明日報》( 2018年06月23日 07版)
[責任編輯:孫滿桃]