天天看點

監管迫在眉睫 探析人工智能軍事應用的“能”與“不能”

作者:人民中科Cognitive
監管迫在眉睫 探析人工智能軍事應用的“能”與“不能”

人工智能的廣泛應用正深刻改變人類社會生産生活方式,在軍事領域的應用也不斷改變戰争的樣貌,但與此同時引起了人們對無人化自主武器可能被濫用、濫殺的警惕與擔憂。

2月15至16日,荷蘭與南韓聯辦的“在軍事領域負責任使用人工智能”峰會在海牙舉行,包括美國和中國在内的一些國家呼籲采取緊急行動,以監管在戰争中研發并日益應用人工智能的情況,警告說這項技術“可能會産生意外的後果”。

這次峰會和這份“行動呼籲”被認為邁出了确立在戰場上應用人工智能國際準則的重要一步,引起世界廣泛關注。

1

人工智能軍事應用的“能”與“不能”

人工智能在軍事領域的應用,是推動軍事技術進步和軍事革命演進的重要力量,是改變作戰樣式和颠覆戰争形态的關鍵推手。

目前,智能化戰争形态已顯露颠覆以往戰争形态的新特征。

比如:智能化軍隊組織形态将重塑重構,上司指揮體制呈現扁平網聚、矩陣互動、全域耦合特點,規模結構更加精幹高效、多域聚合、一體融合,人機混合和無人叢集編組成為主要方式,智能主導的無人化作戰力量占比不斷提高;

虛拟空間在作戰體系中的地位作用逐漸提升,地理域、實體域、資訊域、認知域實作深度統合與一體化,多域跨域成為基本形态;武器系統無中心、弱中心、有中心以及互相之間的混合相容成為發展趨勢,将徹底改變以人為主的指揮控制和決策模式。

監管迫在眉睫 探析人工智能軍事應用的“能”與“不能”

目前已經顯見,人工智能技術越來越多地運用于軍事領域,提升了戰争智能化對抗的色彩與水準,由此可能造成戰争門檻降低、戰争表象模糊、戰争主體更加多元。

但任何技術手段的更疊進步也無法改變戰争的本質,無法改變戰争的基本規律和基本指導規律。

在智能時代,戰争本質仍然是流血的政治,智能技術的發展和在軍事領域的應用,同樣是各個國家和政治集團政略戰略的直接展現,戰争的正義性和非正義性依然有明确分野,戰争的命運依然是由參戰的官兵和人民群衆決定的,涉及民族獨立、反對壓迫剝削、促進人民解放和社會進步的戰争,需要“明知不可為而為之”的膽略和“狹路相逢勇者勝”的決心。

在戰争指導上,無論人工智能技術如何發展,我們都要堅持戰争為政治服務、堅持以正義戰争打敗非正義戰争這個根本。

監管迫在眉睫 探析人工智能軍事應用的“能”與“不能”

能輔助人類決策,但不能完全取代人類 人工智能能否完全取代人類在戰争中的作用,是人工智能在軍事領域必須直面的問題。

智能化不是要讓機器智能超越、取代或淘汰人,而是用它輔助、解放和增強人,通過人機智能融合,實作人的自我超越。

2

人工智能軍事應用面臨的技術倫理困境

人工智能自誕生之日起就引起人們無限的想象和憧憬,同時也伴随着巨大的倫理争議。在諸多成因中,人工智能技術的安全性問題引發的倫理争議尤為激烈。

01

算法缺陷引發的倫理風險

算法安全通常是指由于算法本身不完善,使設計或實施過程中出現與預期不相符的安全性問題。如:由于設計者定義了錯誤的目标函數,或者選用了不合适的模型而引起安全問題;設計者沒有充分考慮限制性條件,導緻算法在運作過程中造成不良後果,引起的安全問題等。

監管迫在眉睫 探析人工智能軍事應用的“能”與“不能”

02

資料漏洞引發的倫理風險

資料安全是指算法内部資料模型或外部資料集在處理、存儲過程中的資料安全問題。在軍用領域,人工智能資料安全主要面臨兩大風險,即訓練資料被污染的安全風險和核心資料遭竊取的安全風險。

在軍事上,人工智能應用的安全性與其準确的識别能力、精确的打擊能力、快速的反應能力密不可分。而一旦訓練資料被嚴重污染,就有可能導緻以下幾種情況的出現:人工智能決策系統給出的方案并非最優方案,甚至存在巨大安全隐患;人工智能武器系統在無人授權的情況下随意改變攻擊目标、擴大攻擊範圍,造成嚴重的平民傷亡;與人工智能相關聯的戰略武器系統受到錯誤誘導,自主啟動發動攻擊,進而引發毀滅性災難。

另一方面,由于資料安全的責任主體從個人、企業、組織上升到了國家,資料安全風險的波及範圍也從社會内部延伸到了國家之間,其複雜程度和敏感程度均有了顯著提升。

監管迫在眉睫 探析人工智能軍事應用的“能”與“不能”

比如,在戰時,為了掌握戰争主動權,對交戰對手的軍事情報和密碼進行竊取和破譯通常被認為是符合戰争法和軍事倫理規範的。但在平時,以人工智能技術為媒介,竊取别國的核心軍事資料,以至于嚴重威脅國防安全,則無論是在法理上還是道德上都存在較大的争議。這樣的行為一旦得到默許,勢必會加劇國與國之間的緊張關系,對原本就脆弱的國際安全局勢産生惡劣影響。另外,黑客和恐怖組織也同樣有可能通過人工智能技術漏洞竊取相關資料,開展非法和恐怖活動,危及國家安全。

監管迫在眉睫 探析人工智能軍事應用的“能”與“不能”

03

資訊失控引發的倫理風險

資訊安全是指人工智能技術下,資訊的保密性、真實性等安全問題。一方面,大資料的出現使得對于個人隐私資訊的收集變得越來越容易進行;另一方面,随着換臉換聲技術的興起,僞造圖檔和音視訊資訊大量湧現且真假難辨,大大降低了資訊的可信度和透明度。基于以上特點,人工智能軍事應用将面臨兩大倫理風險,即個人隐私資訊被用于軍事目的和資訊迷霧沖擊戰争倫理的風險。

一方面,資訊迷霧的出現會嚴重損害普通群眾對戰争中事件真相的知曉權;另一方面,在輿論戰中使用的各種欺騙手段将大大降低戰争倫理水準,進而導緻參戰人員在戰争中遵守交戰規則和實行人道主義的外部限制力量進一步減弱,進而滋生一系列破壞交戰規則和反人道的行為。

監管迫在眉睫 探析人工智能軍事應用的“能”與“不能”

3

人工智能軍事應用安全治理和國際規範

針對人工智能軍事應用安全治理和國際規範制定相關話題的讨論多年前就已展開,既有聯合國層面的定期磋商,也有國家層面的各自努力,還有産業界和智庫層面的對話交流。

監管迫在眉睫 探析人工智能軍事應用的“能”與“不能”

2019年9月,聯合國《特定正常武器公約》确立了緻命性自主武器系統運用的11項指導原則。聯合國教科文組織2021年正式釋出了《人工智能倫理問題建議書》。除聯合國外,一些區域性政府間組織也釋出了涉及人工智能倫理準則的檔案。比如,2019年4月,歐盟委員會釋出《可信賴的人工智能倫理準則》。

在國家層面,美國2012年以來先後出台自主武器安全規範和軍用人工智能倫理準則。

比如,美國國防部陸續釋出了《國防部指令3000.09:自主性武器系統》《負責任的人工智能準則》《負責任的人工智能戰略與實施路徑》等政策檔案。

中國政府也高度重視人工智能軍事應用國際治理和規範制定,科技部指導成立了國家新一代人工智能治理專業委員會,2017年以來陸續釋出了《新一代人工智能治理原則—發展負責任的人工智能》《新一代人工智能倫理規範》等報告檔案。

2021年12月13日,中國特命全權裁軍事務大使李松向聯合國《特定正常武器公約》第六次審議大會送出了《中國關于規範人工智能軍事應用的立場檔案》。2022年11月16日,李松大使又向聯合國《特定正常武器公約》締約國大會送出了《中國關于加強人工智能倫理治理的立場檔案》。在這些檔案中,中國積極倡導人工智能“倫理先行” “以人為本”“智能向善”和“多邊協商”等治理原則。

監管迫在眉睫 探析人工智能軍事應用的“能”與“不能”

在智庫交流層面,中國軍控與裁軍協會、清華大學戰略與安全研究中心等機構,積極組織中國專家學者參與人工智能國際安全治理二軌對話,與美國、歐盟、印度、印度尼西亞、馬來西亞等國智庫之間建立了機制性對話研讨平台,增進人工智能負責任運用的概念了解、規範制定和學術共識。

此次海牙峰會發表的“行動呼籲”,再次強調了負責任開發和使用人工智能軍事系統的重要性,強化了國際社會已有的人工智能軍事應用國際規範基本共識。

但我們需清醒地認識到,這是一項不具有法律限制力的溫和“行動呼籲”,在參加會議的80多個國家的代表中隻有60多個國家簽署了“行動呼籲”。比如,作為人工智能技術強國,以色列代表就沒有在“行動呼籲”倡議書上簽字。可見,在人工智能軍事應用領域,要制定一項類似于限制使用化學武器和生物武器的聯合國軍控協定,還有很長的路要走。

監管迫在眉睫 探析人工智能軍事應用的“能”與“不能”

結語

人工智能或許能厘清“利”與“弊”,厘清“勝”與“失”,但卻很難像人類一樣看待“舍”與“得”,判斷“對”與“錯”。

人類必須将戰争的主動權牢牢掌握在自己手裡。無論智能科技取得什麼樣的突破,人仍将是戰争的策源者、設計者和承擔者,人類意志以規則和算法被物化到智能武器中,戰争中由智能武器來貫徹人的作戰意圖、達成預定的作戰目的,智能武器自主作戰的背後依然是作戰方法、指揮方式與意志品質的較量。

責編:嶽青植

監制:李紅梅

文章參考:

1.《中美等國呼籲:監管人工智能軍事應用迫在眉睫》參考消息

2.《朱啟超、王文佳:軍用人工智能國際安全治理亟待加強》環球網

3.《<時代>封面文章談AI軍備競賽:當下如此震顫人心,也如此危險》澎湃新聞

4.《軍用人工智能國際安全治理亟待加強》中國青年網

5.《人工智能軍事應用及其國際法問題》資訊安全與通信保密雜志社

6.《人工智能軍事應用的“能”與“不能”》學習時報

繼續閱讀