天天看点

监管迫在眉睫 探析人工智能军事应用的“能”与“不能”

作者:人民中科Cognitive
监管迫在眉睫 探析人工智能军事应用的“能”与“不能”

人工智能的广泛应用正深刻改变人类社会生产生活方式,在军事领域的应用也不断改变战争的样貌,但与此同时引起了人们对无人化自主武器可能被滥用、滥杀的警惕与担忧。

2月15至16日,荷兰与韩国联办的“在军事领域负责任使用人工智能”峰会在海牙举行,包括美国和中国在内的一些国家呼吁采取紧急行动,以监管在战争中研发并日益应用人工智能的情况,警告说这项技术“可能会产生意外的后果”。

这次峰会和这份“行动呼吁”被认为迈出了确立在战场上应用人工智能国际准则的重要一步,引起世界广泛关注。

1

人工智能军事应用的“能”与“不能”

人工智能在军事领域的应用,是推动军事技术进步和军事革命演进的重要力量,是改变作战样式和颠覆战争形态的关键推手。

当前,智能化战争形态已显露颠覆以往战争形态的新特征。

比如:智能化军队组织形态将重塑重构,领导指挥体制呈现扁平网聚、矩阵交互、全域耦合特点,规模结构更加精干高效、多域聚合、一体融合,人机混合和无人集群编组成为主要方式,智能主导的无人化作战力量占比不断提高;

虚拟空间在作战体系中的地位作用逐步提升,地理域、物理域、信息域、认知域实现深度统合与一体化,多域跨域成为基本形态;武器系统无中心、弱中心、有中心以及相互之间的混合兼容成为发展趋势,将彻底改变以人为主的指挥控制和决策模式。

监管迫在眉睫 探析人工智能军事应用的“能”与“不能”

目前已经显见,人工智能技术越来越多地运用于军事领域,提升了战争智能化对抗的色彩与水平,由此可能造成战争门槛降低、战争表象模糊、战争主体更加多元。

但任何技术手段的更迭进步也无法改变战争的本质,无法改变战争的基本规律和基本指导规律。

在智能时代,战争本质仍然是流血的政治,智能技术的发展和在军事领域的应用,同样是各个国家和政治集团政略战略的直接体现,战争的正义性和非正义性依然有明确分野,战争的命运依然是由参战的官兵和人民群众决定的,涉及民族独立、反对压迫剥削、促进人民解放和社会进步的战争,需要“明知不可为而为之”的胆略和“狭路相逢勇者胜”的决心。

在战争指导上,无论人工智能技术如何发展,我们都要坚持战争为政治服务、坚持以正义战争打败非正义战争这个根本。

监管迫在眉睫 探析人工智能军事应用的“能”与“不能”

能辅助人类决策,但不能完全取代人类 人工智能能否完全取代人类在战争中的作用,是人工智能在军事领域必须直面的问题。

智能化不是要让机器智能超越、取代或淘汰人,而是用它辅助、解放和增强人,通过人机智能融合,实现人的自我超越。

2

人工智能军事应用面临的技术伦理困境

人工智能自诞生之日起就引起人们无限的想象和憧憬,同时也伴随着巨大的伦理争议。在诸多成因中,人工智能技术的安全性问题引发的伦理争议尤为激烈。

01

算法缺陷引发的伦理风险

算法安全通常是指由于算法本身不完善,使设计或实施过程中出现与预期不相符的安全性问题。如:由于设计者定义了错误的目标函数,或者选用了不合适的模型而引起安全问题;设计者没有充分考虑限制性条件,导致算法在运行过程中造成不良后果,引起的安全问题等。

监管迫在眉睫 探析人工智能军事应用的“能”与“不能”

02

数据漏洞引发的伦理风险

数据安全是指算法内部数据模型或外部数据集在处理、存储过程中的数据安全问题。在军用领域,人工智能数据安全主要面临两大风险,即训练数据被污染的安全风险和核心数据遭窃取的安全风险。

在军事上,人工智能应用的安全性与其准确的识别能力、精确的打击能力、快速的反应能力密不可分。而一旦训练数据被严重污染,就有可能导致以下几种情况的出现:人工智能决策系统给出的方案并非最优方案,甚至存在巨大安全隐患;人工智能武器系统在无人授权的情况下随意改变攻击目标、扩大攻击范围,造成严重的平民伤亡;与人工智能相关联的战略武器系统受到错误诱导,自主启动发动攻击,从而引发毁灭性灾难。

另一方面,由于数据安全的责任主体从个人、企业、组织上升到了国家,数据安全风险的波及范围也从社会内部延伸到了国家之间,其复杂程度和敏感程度均有了显著提升。

监管迫在眉睫 探析人工智能军事应用的“能”与“不能”

比如,在战时,为了掌握战争主动权,对交战对手的军事情报和密码进行窃取和破译通常被认为是符合战争法和军事伦理规范的。但在平时,以人工智能技术为媒介,窃取别国的核心军事数据,以至于严重威胁国防安全,则无论是在法理上还是道德上都存在较大的争议。这样的行为一旦得到默许,势必会加剧国与国之间的紧张关系,对原本就脆弱的国际安全局势产生恶劣影响。另外,黑客和恐怖组织也同样有可能通过人工智能技术漏洞窃取相关数据,开展非法和恐怖活动,危及国家安全。

监管迫在眉睫 探析人工智能军事应用的“能”与“不能”

03

信息失控引发的伦理风险

信息安全是指人工智能技术下,信息的保密性、真实性等安全问题。一方面,大数据的出现使得对于个人隐私信息的收集变得越来越容易进行;另一方面,随着换脸换声技术的兴起,伪造图片和音视频信息大量涌现且真假难辨,大大降低了信息的可信度和透明度。基于以上特点,人工智能军事应用将面临两大伦理风险,即个人隐私信息被用于军事目的和信息迷雾冲击战争伦理的风险。

一方面,信息迷雾的出现会严重损害普通民众对战争中事件真相的知晓权;另一方面,在舆论战中使用的各种欺骗手段将大大降低战争伦理水平,从而导致参战人员在战争中遵守交战规则和实行人道主义的外部约束力量进一步减弱,进而滋生一系列破坏交战规则和反人道的行为。

监管迫在眉睫 探析人工智能军事应用的“能”与“不能”

3

人工智能军事应用安全治理和国际规范

针对人工智能军事应用安全治理和国际规范制定相关话题的讨论多年前就已展开,既有联合国层面的定期磋商,也有国家层面的各自努力,还有产业界和智库层面的对话交流。

监管迫在眉睫 探析人工智能军事应用的“能”与“不能”

2019年9月,联合国《特定常规武器公约》确立了致命性自主武器系统运用的11项指导原则。联合国教科文组织2021年正式发布了《人工智能伦理问题建议书》。除联合国外,一些区域性政府间组织也发布了涉及人工智能伦理准则的文件。比如,2019年4月,欧盟委员会发布《可信赖的人工智能伦理准则》。

在国家层面,美国2012年以来先后出台自主武器安全规范和军用人工智能伦理准则。

比如,美国国防部陆续发布了《国防部指令3000.09:自主性武器系统》《负责任的人工智能准则》《负责任的人工智能战略与实施路径》等政策文件。

中国政府也高度重视人工智能军事应用国际治理和规范制定,科技部指导成立了国家新一代人工智能治理专业委员会,2017年以来陆续发布了《新一代人工智能治理原则—发展负责任的人工智能》《新一代人工智能伦理规范》等报告文件。

2021年12月13日,中国特命全权裁军事务大使李松向联合国《特定常规武器公约》第六次审议大会提交了《中国关于规范人工智能军事应用的立场文件》。2022年11月16日,李松大使又向联合国《特定常规武器公约》缔约国大会提交了《中国关于加强人工智能伦理治理的立场文件》。在这些文件中,中国积极倡导人工智能“伦理先行” “以人为本”“智能向善”和“多边协商”等治理原则。

监管迫在眉睫 探析人工智能军事应用的“能”与“不能”

在智库交流层面,中国军控与裁军协会、清华大学战略与安全研究中心等机构,积极组织中国专家学者参与人工智能国际安全治理二轨对话,与美国、欧盟、印度、印度尼西亚、马来西亚等国智库之间建立了机制性对话研讨平台,增进人工智能负责任运用的概念理解、规范制定和学术共识。

此次海牙峰会发表的“行动呼吁”,再次强调了负责任开发和使用人工智能军事系统的重要性,强化了国际社会已有的人工智能军事应用国际规范基本共识。

但我们需清醒地认识到,这是一项不具有法律约束力的温和“行动呼吁”,在参加会议的80多个国家的代表中只有60多个国家签署了“行动呼吁”。比如,作为人工智能技术强国,以色列代表就没有在“行动呼吁”倡议书上签字。可见,在人工智能军事应用领域,要制定一项类似于限制使用化学武器和生物武器的联合国军控协议,还有很长的路要走。

监管迫在眉睫 探析人工智能军事应用的“能”与“不能”

结语

人工智能或许能分清“利”与“弊”,厘清“胜”与“失”,但却很难像人类一样看待“舍”与“得”,判断“对”与“错”。

人类必须将战争的主动权牢牢掌握在自己手里。无论智能科技取得什么样的突破,人仍将是战争的策源者、设计者和承担者,人类意志以规则和算法被物化到智能武器中,战争中由智能武器来贯彻人的作战意图、达成预定的作战目的,智能武器自主作战的背后依然是作战方法、指挥方式与意志品质的较量。

责编:岳青植

监制:李红梅

文章参考:

1.《中美等国呼吁:监管人工智能军事应用迫在眉睫》参考消息

2.《朱启超、王文佳:军用人工智能国际安全治理亟待加强》环球网

3.《<时代>封面文章谈AI军备竞赛:当下如此震颤人心,也如此危险》澎湃新闻

4.《军用人工智能国际安全治理亟待加强》中国青年网

5.《人工智能军事应用及其国际法问题》信息安全与通信保密杂志社

6.《人工智能军事应用的“能”与“不能”》学习时报

继续阅读