如何規範人工智慧軍事應用?一文帶你透視美軍的人工智慧倫理準則

2020-12-05 科技與生活視野

導讀:2019年10月,美國國防創新委員會(Defense Innovation Board)發布《人工智慧準則:推動國防部以符合倫理的方式運用人工智慧的建議》報告。2020年2月24日,美防長正式籤署這一文件,使其成為美國防部在人工智慧倫理領域的官方政策。作為美軍推出的世界上第一份軍事領域的人工智慧倫理準則,該報告對於研究美軍和人工智慧軍事倫理規範具有重要參考價值,故將其重要內容編譯如下,以饗讀者。

01、為什麼美國防部要制定軍事人工智慧倫理準則問題?

該報告認為,人工智慧正深刻改變社會,影響經貿、社交和作戰的方式。在許多方面,人工智慧領域正處於蓬勃發展的階段。近年來計算領域的快速發展使得數十年來一直停留在理論層面的人工智慧在應用上取得了顯著進展。然而,人工智慧的實際應用往往是脆弱的,人工智慧相關學科也在不斷發展,使得關於人工智慧使用的規範還處於起步階段。在全球範圍內,公共部門、私營企業、學術界和公民社會正在就人工智慧的前景、危險和如何適當使用等問題展開持續辯論,國家安全也是爭論的一個重要方面。現在是時候在人工智慧興起的早期階段、在事故發生之前,就人工智慧發展的規範和在軍事環境中的使用進行嚴肅的討論。

美國《2018年國防戰略》要求國防部加大對人工智慧和自主性的投資,為美國提供具有競爭力的軍事優勢。國防部的人工智慧戰略與國防戰略相適應,認為國防部正致力於挖掘人工智慧的潛力「積極推動部門轉型,從而支持和保護軍人、保衛美國公民、維護盟友和夥伴、提高負擔能力、效率和速度」。美國防部人工智慧戰略進一步指出,它「將闡明以合法和合乎道德的方式使用人工智慧的願景和指導原則,以增強我們的價值觀。」國防部強調有必要加強與學術界、私營企業和國際社會的接觸和交流,以「促進人工智慧在軍事領域運用中的倫理和安全」,並強調其對開發和部署人工智慧的倫理和負責任的承諾。「引領軍事人工智慧倫理和安全」是該戰略的五大支柱之一。

02、美國防部的五大人工智慧倫理準則

美國防部提出了人工智慧軍事應用的五大原則,分別是:

1.負責任的(responsible)。對國防部人工智慧系統的開發、部署、使用和結果,人類應進行一定判斷並為之負責。

2.公平的(equitable)。國防部應採取審慎的行動,避免在開發戰鬥或非戰鬥人工智慧系統時出現意外偏差和無意中對人造成傷害。

3.可追溯的(traceable)。國防部的人工智慧工程學科應足夠先進,以便技術專家對其人工智慧系統的技術、開發流程和操作方法有適當的了解,包括透明和可審核的方法、數據源以及設計程序和文檔。

4.可靠的(reliable)。國防部人工智慧系統應具有清晰和明確定義的使用領域,並且此類系統的安全性、安全性和魯棒性應在其整個生命周期內進行測試和保證。

5.可管控的(governable)。國防部人工智慧系統的設計應滿足其預期功能,同時具有檢測和避免意外傷害或中斷的能力。

03、美軍將如何推動這五大原則的落地?

該報告還為美國防部推行人工智慧倫理準則的落實提出了12條建議,具體如下。

1.通過國防部的官方渠道正式確定這些原則。聯合人工智慧中心應向國防部長建議適當的溝通和政策發布,以確保這些人工智慧倫理準則的持久性。

▲2019年2月24日,美國防部正式採用這五大原則

2.建立一個國防部範圍的人工智慧指導委員會。國防部副部長應建立一個高級委員會向他/她報告,負責確保監督和執行國防部人工智慧戰略,並確保國防部的人工智慧項目符合國防部的人工智慧道德原則。堅持人工智慧倫理原則要求國防部將它們集成到決策的基本方面,從概念層面(如DOTMLPF)到更有形的人工智慧相關領域,如數據共享、雲計算、人力資本和IT策略。

3.培育和發展人工智慧工程學科。負責研究、工程與服務的國防部副部長辦公室(OUSD)應通過建立國防部長期以來培養的健全工程實踐支持人工智慧工程學科的成長和成熟,使從事人工智慧研究的群體更為廣泛,為早期職業研究人員提供具體操作的機會,並將該部門的安全和責任傳統融入人工智慧領域,將人工智慧技術納入更大的領域複雜的工程系統。

4.強化國防部培訓和勞動力計劃。各軍種、作戰司令部、國防部長辦公室下屬部門、國防機構、國防現場活動應建立與各自國防部人員相關的人工智慧技能和知識培訓教育計劃。各種培訓計劃應向從初級人員到人工智慧工程師再到高層領導等廣大人員廣泛提供,利用現有數字內容並結合領導和專家的專門指導。初級軍官、應徵入伍人員和文職人員在工作初期必須要進行人工智慧培訓教育,並且國防部在其整個職業生涯期間通過正式職業軍事教育和實際應用提供繼續學習機會。

5.加大對研究人工智慧帶來的新型安全問題的投資力度。負責政策的國防部副部長辦公室(The Office of the Under Secretary for Policy)和淨評估辦公室(the Office of Net Assessment)應該對人工智慧時代的戰略競爭和新型威懾領域進行重點投資,特別是與網絡安全、量子計算、信息戰或生物技術等其他領域相結合時。需要重點加強的領域包括人工智慧競爭性和升級動態、避免危險擴散、對戰略穩定的影響、威懾選擇以及國家間作出積極承諾的機遇。

6.加大對提高可重複性的相關研究。負責研究與工程的國防部副部長辦公室(OUSD(R&E)應投資於使人工智慧系統具有可重複性的相關研究。人工智慧在這一領域所面臨的挑戰,為國防部致力於研究複雜人工智慧模型的具體機理提供了機遇。這項工作還將有助於解決人工智慧的「黑箱」問題。

7.制定可靠性的具體基準。負責研究與工程的國防部副部長辦公室(OUSD(R&E))應探索如何最好地制定適當的基準,以衡量人工智慧系統的性能,包括相對於人類來說的性能。

8.強化人工智慧測試和評估技術研究。在開發測試與評估辦公室(the Office of Developmental Test & Evaluation,ODT&E)的領導下,國防部應使用或改進現有的測試、評估和驗證程序,並在必要時為人工智慧系統創建新的基礎設施。這些程序應遵循國防創新委員會「軟體獲取與實踐」(SWAP)研究中詳述的軟體驅動的T&E指南。

9.研究風險管理的具體方法。聯合人工智慧中心應根據其道德、安全和法律風險考慮,創建國防部使用人工智慧的分類。此分類應鼓勵和激勵在低風險應用中迅速採用成熟技術,並強調和優先考慮更加謹慎地審查不太成熟和/或可能導致更重大不利後果的應用。

10.確保正確實施人工智慧倫理原則。聯合人工智慧中心應評估這些原則和任何有關指令的適當實施情況,作為2019年《國防授權法》第238節或其他未來指示所要求的治理和監督審查的一部分。

11.展開了解如何實施人工智慧道德原則的研究。負責研究與工程的國防部副部長辦公室(OUSD(R&E))應與各軍兵種的研究辦公室合作,共同組織一個「多學科大學研究計劃」(MURI)項目,研究人工智慧的安全性、安全性和穩健性。MURI項目應當作為在這些領域進行持續的基礎和學術研究的起點。

12.召開關於人工智慧安全和魯棒性的年會。鑑於人工智慧廣泛領域的快速演變性質,聯合人工智慧中心應召開年會,研究人工智慧安全和魯棒性等方面的倫理問題,廣泛聽取內外部的意見。

相關焦點

  • 新冠疫情與人工智慧倫理準則面臨的新挑戰
    導讀全球抗疫背景下,人工智慧在醫療場景的應用不斷增加。然而,在新冠疫情中,已有倫理原則的局限性顯現,主要體現在不同倫理準則之間面臨衝突。本文將分析疫情背景下AI倫理準則面臨的新挑戰並探討對策。儘管各國為規範和引領人工智慧發展,相繼發布了人工智慧的倫理準則,然而,這種高度抽象的原則沒有回答一個重要的問題:當現實情境中不同倫理準則之間面臨衝突時,如何處理衝突或進行取捨?
  • 人工智慧倫理三問:如何對待機器和自身的關係?
    (資料圖片) 當前,人工智慧浪潮方興未艾,在很多領域展示出巨大應用前景。然而,隨著人工智慧技術的不斷發展,它引發的倫理爭議也不斷出現 近日,中國發展研究基金會發布報告——《未來基石——人工智慧的社會角色與倫理》。針對人工智慧倫理問題,報告在提出一系列建議的同時,也希望推動問題的充分討論。
  • 歐盟發布人工智慧倫理準則,希望以「歐州優勢」邁向全球標準
    一篇FT的文章指出,大型技術巨頭們一次又一次的侵犯人權,這是為什麼要發布《歐盟人工智慧倫理準則》( 關鍵詞:EU's ethical guidelines on artificial intelligence)這一政策的重要原因。在人工智慧的發展上,歐盟已經落後於中國與美國。
  • 歐盟人工智慧倫理準則概要
    出臺背景  《歐洲人工智慧戰略》提出,AI應當堅持以人為本的價值觀立場,AI本身並不是目的,只是服務人類的工具,其最終目的應當是增進人類福祉。因此,AI的開發應用需要全面融入社會價值觀。歐盟是建立在尊嚴、自由、民主、平等、法治和人的基本權利(包括少數人的權利)等價值觀之上的。這些價值觀在盛行多元主義、非歧視、寬容、正義、平等、團結等歐盟成員國中也都獲得普遍認同。
  • 【深度】「人工智慧」在美國軍事中的現狀與發展
    研究其在軍事情報工作中的當前運用及發展趨勢,可為我國軍事情報領域人工智慧技術快速發展提供借鑑與參考。 導語: 美國計算機和認知科學家約翰·麥卡錫及其同事在 1956 年達特茅斯會議上創造了 「人工智慧」一詞。
  • 如何與AI談倫理?
    對於人工智慧是否會毀滅人類,有人認為重要的不在技術,而是規則。在人工智慧這股不可逆的潮流中,前有阿西莫夫著名的機器人學三大定律,後有國際人工智慧界正在日益重視的倫理與法律問題,如IEEE全球人工智慧與倫理倡議、阿西洛馬人工智慧23條倫理原則相繼出現,顯而易見,人類渴望著科技的進步,但又恐懼科技的進步。
  • 「管理科學」人工智慧體引發的倫理困境
    人工智慧體的研究和應用,在極大程度上為人們的生產生活提供了便利。但是隨著人工智慧技術的發展,人工智慧體的性能不斷豐富,出現了越來越多的倫理性問題。因此,對於目前的人工智慧技術研究而言,找到走出人工智慧體倫理困境的方法至關重要,這也已經成為技術研究人員關注的重點。
  • 聚焦軍事領域 發力人工智慧
    作者提供當前,人工智慧正在深刻改變人們的思維理念、生活方式和探索方向,其在軍事領域的運用和發展,也將對未來戰爭作戰樣式、作戰空間和作戰手段產生深遠影響。各主要國家在把人工智慧上升為國家戰略的同時,也在採取多種措施促進人工智慧的軍事應用。
  • 人工智慧2020年在軍事上的應用有哪些
    預計2020年制約傳感器數據「理解」的多項挑戰將得以解決,進而推動人工智慧在關鍵領域的應用: 一是視頻處理與分析及目標和威脅探測。國防部投入大量人力來監控源數據(無人機視頻數據、士兵可穿戴設備的健康信息數據等),用於明確目標,事件,威脅和異常情況。利用傳感器驅動的數據通常需要一定程度的人力,但是在經濟可承受性和運營上都是不可行。
  • 解局人工智慧技術的倫理風險
    解局人工智慧技術的倫理風險丨數據政治經濟觀察網 劉志毅/文 目前的人工智慧技術發展,主要是以計算機為載體推動自動化技術的發展。基於數據的人工智慧的技術可以幫助我們用各種自動化裝置取代人們的各種生產活動,從而提升社會整體發展效率。人工智慧帶來巨大的效能提升的同時,也會帶來巨大的風險。我們需要去仔細評估AI帶給我們什麼樣的未來?以及人工智慧的風險是如何產生的?
  • 騰訊研究院發布《科技向善白皮書2021》提出人工智慧倫理三大共識
    DoNews1月11日消息(記者 翟繼茹)近日,騰訊研究院與騰訊學院聯合發布了《科技向善白皮書2021》,後疫情時代科技如何發展、人工智慧與倫理關係、算法是否會「控制」我們的生活等一系列問題,在白皮書中被詳細探討。
  • 上海交大科學史與科學文化研究院舉辦「人工智慧、倫理與文化高端論壇」
    但是目前為止,人工智慧尚未具備自我意識,因此無法談論人工智慧的道德問題。那麼,人工智慧如何講述道德問題?人工智慧處理人類工作,而人的活動內含道德規範。機器在運行中必然存在著道德規範,而規範設計來自人工智慧背後的編寫者。那麼到底預設怎樣的道德?倫理學家進行多方討論,宗教道德難以應用,世俗標準成為選擇。如果出現問題,即使用功利主義標準,那麼大多數該如何定義?
  • 上海交通大學科學史與科學文化研究院舉辦「人工智慧、倫理與文化...
    指出道德產生的先決條件是自我意識,而認識上的困境體現在缸中之腦思想實驗中,人工智慧在一定程度上亦是如此。缸中之腦最早來源於笛卡爾的我思故我在。作為主體的存在首先要有自我意識,針對自我意識才能談論道德。但是目前為止,人工智慧尚未具備自我意識,因此無法談論人工智慧的道德問題。那麼,人工智慧如何講述道德問題?人工智慧處理人類工作,而人的活動內含道德規範。
  • 當腦機接口裝上軍事按鈕
    藉助BCI工具的力量,美軍有可能提高軍人的身體和認知能力。」與美國軍方關係密切的美國蘭德公司網站不久前的一篇文章如此寫道。  當前,腦機接口軍事應用的具體研發進展如何?相關應用又將給軍事領域帶來哪些改變?值得關注。
  • 人工智慧面臨倫理困境
    > 關鍵詞:人工智慧;谷歌;機器人;倫理意識;無人駕駛汽車 作者簡介:   日前,已進行測試多年的谷歌無人駕駛汽車發生事故,致人受傷,這一事件再次將人工智慧牽涉的倫理問題推到風口浪尖。
  • 美國空軍對應用發展人工智慧技術的思路淺析
    新技術引導的軍事變革讓「五代機」變為「明日黃花」。新一代的空中優勢該如何構建?這不僅僅是選擇一個或幾個「接替者」的問題,或許很大程度上將會是一次理念上的重建。推薦以下文章,是為讀者提供一個參考,在了解國外發展思路的同時,也可以思考我國的未來空中力量該如何構建。
  • 中國AI全景論文:關注AI發展帶來的倫理、法律和經濟問題
    論文的發布是中國人工智慧產業的發展成果在全球的重要性和影響力的體現,也彰顯了上海作為全球人工智慧高地的實力。除了提到AI在各個行業中的應用和人才培養外,論文詳細介紹了人工智慧道德規範問題。論文寫道,根據中國新一代人工智慧發展規劃,要實現人工智慧造福人類社會的長遠目標,不僅要加大人工智慧的研發和應用力度,最大限度地發揮人工智慧的潛力,而且要更加關注人工智慧發展帶來的諸多倫理、法律和經濟問題。2019年6月,國家新一代人工智慧治理委員會發布了《新一代人工智慧發展負責任人工智慧治理原則》。
  • 《自然》:4個人工智慧與神經科技的倫理問題,人類如何應對
    2017年5月,美國國家科學基金會贊助在紐約哥倫比亞大學舉辦了一場研討會,我們在會上討論了神經技術和機器智能的倫理問題。我們認為現存的倫理規範對這個領域來說是不夠的。這其中包括《赫爾辛基宣言》,一項誕生於1964年的關於涉及人類被試的醫學研究的倫理原則聲明;《貝爾蒙特報告》,1979年由美國國家生物醫學和行為研究被試保護委員會制定的一份聲明;以及今年年初由商業領袖、人工智慧研究者等多方籤署的《阿西洛馬人工智慧原則》。
  • 欲望、理性與真實:科幻電影中的人工智慧倫理問題
    摘要:科幻電影在較深的精神層面凸顯了人工智慧科技發展所造成的當代倫理困境,本質上是關於當代人的欲望與理性之間的對立、矛盾、鬥爭和解決。回歸智能社會本身,反思智能社會的真實嚮往,以我們自己的方式解決智能社會中人自身的困惑與焦慮,進而正確引導尚不成熟的人工智慧趨利避害發展,就有了重要現實價值。
  • 科技倫理是科學造福人類的導航儀
    科技倫理是理性的產物  科技倫理是科技創新和科研活動中人與社會、人與自然以及人與人關係的思想與行為準則,它不只是涉及科學研究中的倫理,也不只是科研人員要遵守科技倫理,還包括科技成果應用中的倫理。例如,手機App下載的同意條款和醫院治病時的知情同意等。如果把人類文明的演化當作一個永無止境的徵程,人類奔向更高文明的原動力就是科技和創新。