軍事科技與防務動 發表於 2020-03-26 11:15:38
還記得科幻電影《終結者2》裡天網對人類的倒戈,以及《復仇者聯盟2》裡人工智慧機器人奧創對人類展開的毀滅計劃嗎?為了避免這一天可能的到來,全球人工智慧領域的研究人員 也不不斷努力。
2018年4 月 4 日,3100 名谷歌員工聯名發出公開信,要求谷歌退出美國國防部人工智慧軍事項目——Maven 計劃。在這封谷歌員工聯名信中,要求谷歌不但應立刻退出Maven 計劃,而且應向所有人承諾,永遠不會參與研發任何類型的戰爭科技。
幾乎同一時間,韓國科學技術院大學與軍工企業「韓華 Systems」合作研發自主武器,以便在無人控制的情況下搜索並消除目標,此舉遭到全球50多名人工智慧學者聯名抵制。隨後, 2018年4月9日,聯合國《特定常規武器公約》政府專家小組在日內瓦召開會議,專項討論「殺人機器人」可能帶來的影響。據稱,此次會議跟此前韓國科學技術院大學宣布開發「殺人機器人」有關。
那麼,以人工智慧為基礎的軍事系統,能否代替人類做出恰當的軍事決策?人工智慧與軍事真的不能共存嗎?
一、軍事技術先行
在遙遠的未來,人工智慧也許會像一些科幻電影中描繪的那樣,使後人類戰爭從科幻變成現實。目前,已經出現了一些趨勢性端倪。
何為趨勢性端倪?近年來人工智慧在軍事領域的應用已經越來越多,人工智慧在某些領域已經表現了超越人類的能力,而這一趨勢開始呈現了不可逆轉性。在2016年舉行的一次模擬空戰對抗比賽中,人工智慧系統通過靈活、迅捷的動作擊敗了具備更強武器系統的退役戰鬥機飛行員。 有專家表示,這個結果具有深遠意義,就像一個象棋大師輸給了電腦。
目前,在武器裝備和指揮控制方面,人工智慧主要體現在陸地、海洋、太空等各類作戰機器人的研發應用和各類智能炸彈的研發領域。隨著數據挖掘技術、大規模並行算法及人工智慧技術的不斷完善並廣泛應用於軍事上,情報、決策與作戰一體化將取得快速進展。實際上,韓國科研機構研製的能在無人控制的情況下搜索並清除目標的自主武器就是典型應用,也是當前人工智慧軍事化的最主要應用。
能夠自主運作的軍用機器人被歸為致命性自主武器系統(LAWS),目前 ,各國發展的無人飛行器、無人地面車輛、無人水面艇等能夠自主運作的武器系統,在某種程度上都屬於LAWS的範疇。這些武器裝備體現出了較高的應用價值。 被人工智慧技術賦能的軍事機器人必將改變未來戰爭形態,促進軍事理論、體制編制、作戰人員、戰法戰術等多方面的變革,使未來戰爭呈現出「無人化」「智能化」的特點。
二、人工智慧用於軍事潮流勢不可擋
在《終結者》《黑客帝國》《我,機器人》等這些經典科幻電影中,人工智慧往往作為反面角色出現,並給人類帶來極大危害。
在2017年的人工智慧國際會議上,特斯拉執行長馬斯克、蘋果聯合創始人沃茲、研發「阿爾法狗」的深度思維公司哈薩比斯等人籤署公開信,呼籲聯合國應像禁止生化武器一樣,禁止在戰爭中使用致命的自主武器和「殺手機器人」。而剛剛去世的著名天體物理學家霍金也曾指出,他不認為發展人工智慧一定能讓人類朝好的方向發展,脫離人類控制的機器很難被阻止住。
雖然人工智慧技術對於保障國家安全具有巨大潛力,但目前人工智慧技術還不成熟,需要更進一步的研究。在研究過程中,人工智慧技術表現出了危險性與未知性,比如無人駕駛汽車的傷人事故,而反人工智慧軍事化的思潮則反映了人們對這一技術前景的擔憂、焦慮,甚至恐懼。
由於人工智慧技術的發展局限,機器人可能將在環境或執行程序複雜的情況中出現失控現象,比如單獨執行作戰任務、人機深度交流等軍用和民用領域。一個典型的例子就是2007年10月,美軍第三機步師一部帶著3臺「利劍」機器人進攻一個反美武裝盤踞的據點時,由於沒有及時更換軟體,其中一臺「利劍」竟把槍口瞄準美軍操作者,而且無論操作員如何發出「行動取消」的指令,失控的「利劍」就是停不下來,直至用火箭筒把它炸翻才化險為夷。
儘管人工智慧在當下還存在種種問題,但反思技術的思潮在人類歷史上技術革命時期都曾出現過,比如工業革命時期的盧徳運動。這一現象的本質原因在於技術異化對人類的威脅。目前來看,人工智慧在軍事領域的應用潮流勢不可擋,在可預見的時期內,人工智慧將在情報偵察、後勤保障、無人作戰系統等領域發揮重要作用。
三、走出倫理泥潭
早在十年前,就有專家警示,已有越來越多的國家投入到軍用機器人的研究與開發中去,世界已在不知不覺中滑進了一場機器人軍備競賽。
毋庸置疑,軍事機器人相比於士兵主要在功能、體能、效能方面具有優勢。軍事機器人可以同時承擔多項複雜任務,作戰可以更加持久,在程序設定完備後能夠高效精準達成目標,失誤率較低。特別是,完全自主機器人具有持續作戰時間長、反應能力快、生存能力強等優勢,將會進一步增加戰爭的烈度與強度,與人類戰士相比具有巨大的不對稱優勢。
然而,有關戰爭責任的倫理問題就出現了,到底參戰的自主機器人是不是戰鬥員?又應當承擔何種戰爭責任?如果軍用機器人自己沒有辦法承擔責任,是否需要其「代理人」對其戰爭行為負責呢?這又引發了新的問題,誰是無人化戰爭中軍用機器人的「代理人」?到底是作戰部隊的程序開發與編寫者呢?還是戰場指揮官呢?相關戰爭責任的追究顯然已變成一個十分棘手的問題。
如果人工智慧應用於軍事是不可逆轉的科技浪潮。那麼,我們應該如何將可能產生的負面影響降至最低呢?對此,首先要堅持人機結合、以人為主的原則,人類應當保證對軍事機器人的控制權,制定應對意外事件的應急機制,建立防範機器人失控的後臺程序。另外,應當加強人工智慧的技術預測與評估,在充分試驗與分析的基礎上逐步推動人工智慧技術的軍事應用。
責任編輯:Ct
打開APP閱讀更多精彩內容聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容圖片侵權或者其他問題,請聯繫本站作侵刪。 侵權投訴