时间:2024-04-23
张东冬
尽管国内外学者在人工智能与全球战略稳定之间建立了某种联系,但对这一问题的研究仍然存在拓展空间。首先,既有的研究主要建立在现今人工智能技术无法撼动传统核威慑的理论基础之上,探讨的问题也主要集中于人工智能可否影响全球战略稳定,鲜有涉及人工智能军事化如何影响全球战略稳定以及如何建构新的全球战略稳定的研究。其次,与诸多新兴技术一样,人工智能具有发展缓慢的周期性特点,很难在短期内对全球战略稳定产生立竿见影的影响,既有的研究低估了人工智能军事化应用对战略稳定所产生的长期性挑战。再次,即便西方学者在某些方面有所探讨,但大多都是以西方为中心的视角,在很多问题上缺少中国学者的关切和回应。基于对上述问题的考量,结合人工智能驱动战略稳定的革命性和深远性,本文主要探讨人工智能军事化发展及其在常规武器和核武器两个领域中的军事应用,并尝试从长远角度系统评估人工智能军事化应用对以核力量为基础的全球战略稳定可能带来的颠覆性影响,进而尝试探索建构新的战略稳定体系的可能路径。
传统全球战略稳定主要建立在核威慑的基础之上,美苏两国冷战期间关于核力量的博弈构成这一时期全球战略稳定理论和实践的全部内容。冷战结束后,美苏二元核力量体系被多元化核力量格局所替代,特别是随着新兴技术的不断发展和扩散,全球战略稳定理论内涵发生了新变化。
从实践方面看,战略稳定主要基于美苏双边核威慑的战略博弈。冷战初期,美国核力量对苏联具有垄断优势,美苏两国处于一种战略非平衡状态。其间,艾森豪威尔政府曾提出大规模报复战略,企图利用美国核垄断优势抵消苏联的地区常规力量优势。20世纪50年代中期以后,苏联研制出洲际导弹并成功发射人造卫星,获得直接摧毁美国本土的远程核打击能力,美苏核战略态势发生根本性变化。美苏两国同时具备第一次核打击能力,意味着双方都能够将对手的核力量消灭殆尽或摧毁到己方防御系统能够承受的地步。苏联核力量的快速增长使美国对苏联可能采取先发制人核打击的不安全感急剧上升。在所谓“导弹差距”态势下,美国通过加快战略核力量的建设,试图强化战略核武器优势,导致美苏之间的核军备竞赛愈演愈烈。
至冷战中后期,随着苏联战略核武库不断扩张,美国单方面保持的核优势不复存在,美国和苏联同时拥有可靠的二次核打击能力,并形成相互威慑的恐怖平衡,双方都有能力进行有效反击来稳定两极间的对抗。从核威慑角度看,二次打击的核报复能力愈强,美苏之间发生核战争的概率也就愈小,反而有利于达成更为稳定的核均衡关系。因此,美苏两个超级大国在建立各自军事力量之间的稳定平衡、威慑关系和避免核战争方面拥有既得利益,减少核军备竞赛的动机或发动先发制人的核打击,成为两国维持全球战略稳定的基本守则。特别是古巴导弹危机发生后,美国和苏联就诸多武器技术进行了军控谈判,并采取一系列合作措施,使全球战略稳定性得到进一步加强。
新兴技术的快速进步具有重大军事意义,追求新技术的国家有强烈动机利用这些技术来增强对国家安全极为重要的军事能力建设。在所有新兴技术中,人工智能的革命性地位和影响最为突出,人工智能技术的军事化应用已成为全球主要军事大国竞相进行战略部署的关键领域。
人工智能军事化的核心是可执行具体智能任务的技术在军事领域的应用,其目的在于提高传统武器性能及优化传统指挥决策。作为特定领域的一项应用,人工智能军事化具有四个特点。一是颠覆性。人工智能技术可推动以往传统战争逐步向智能化、无人化、网联化迈进,通过赋能武器装备升级、催生新的战争形态和作战样式、改变战争制胜机理,对信息化战争产生颠覆性影响。二是不平衡性。目前人工智能军事化的应用仅局限于主要军事强国,美国和俄罗斯等大国在人工智能军事化研发和应用方面拥有领先优势,而中小国家因技术能力的差距而相对参与有限。三是风险性。人工智能技术发展缓慢且不成熟会致使军用人工智能面临一系列不可靠和不安全的风险问题,国际机制和规范的缺失也将导致人工智能军事化应用面临法律、伦理和道德方面的风险。四是非透明性。人工智能技术涉及国家战略发展的重大利益,在军事领域的测试、评估和验证具有一定的独立性和保密性,缺乏透明度和实际应用经验。
此外,人工智能军事化与人工智能技术本身的发展密切相关,有渐进发展的周期性特点。在本轮人工智能浪潮兴起的背景下,人工智能军事化发展势头已呈现不可阻挡之势,全球各国也在顺应时代潮流推进人工智能军事化,但其对全球的影响并不会有立竿见影的效果。按照事物发展的客观规律,人工智能军事化与人工智能技术本身一样,也将经历从低级到高级、由弱到强、自初创到成熟的不同发展阶段。目前,人工智能技术军事化正处于弱人工智能阶段,仅局限于解决特定领域的具体问题,甚至很多技术难题还未能及时解决,诸多现有技术缺陷亟待完善。但从长远来看,随着技术不断走向成熟,人工智能军事化的步伐将会明显加快,未来的人工智能军事化也将向强人工智能的方向发展,世界主要军事强国有望建立起更成熟、更强大的人工智能军事化应用体系,对全球军事化变革产生更加复杂和深远的影响。
人工智能技术军事化在常规武器中的应用包括自主武器系统、辅助指挥决策以及网络安全行动,这些军事化应用推动传统战争形态的颠覆性变革,加速战争向智能化迈进,正日益发展为与核武器一样的战略威慑因素。
除应用于常规武器,人工智能技术也与包括核导弹预警系统、核指挥和控制系统及自主核运载平台等诸多方面核力量相融合,增强拥核国家核威慑力量,进一步推动核决策智能化。
与人工智能军事化应用相一致,人工智能军事化对战略稳定的冲击和影响也主要表现在常规武器和核武器两个不同应用层面。从长远角度来看,人工智能军事化可能衍生新危险和新风险,冲击和挑战传统以核威慑为基础的战略稳定,进而动摇和破坏现有全球战略稳定的根基。
在危机爆发的情况下,动用或提供人工智能情报、监视及侦察(ISR)系统,也将加剧局势紧张,增加冲突意外升级的可能性。危机期间频繁使用针对敌方核战略设施及核指挥控制系统的人工智能情报收集,极易被敌方误解为是对其核力量进行先发制人攻击的前奏。对方为避免核设施遭意外袭击,就可能会采取核战争行动来获取战略主动权。此外,核国家对人工智能技术增强其核指挥、控制和通信(NC3)系统的过度信任也可带来意外风险。在人工智能军事化应用的背景下,技术在危机中有可能加快战争的速度,减少指挥官的决策时间并带来压力,缺乏深思熟虑可能让他们在核危机期间作出核战争的错误决策。
以军用人工智能的先发制人取代核威慑也会导致军备竞赛的不稳定。自二战结束以来,核大国始终将构建有效的防御系统作为优先任务,在某种程度上维护了全球战略稳定。然而,人工智能引发的军事技术变革使所有核国家的核力量变得愈加脆弱,各国开展军备竞赛的意愿和动机明显加深。如果人工智能技术使核力量变得更容易攻击,在其他条件相同的情况下,拥有核武器的国家需要部署更有能力的报复性武库,以应对日益增长的风险。反作用力技术的快速变化增加了对手未来能力的不确定性,各国为此需要保留多样化的报复力量,以防范对手技术上的突破。
针对军用人工智能对现有的全球战略稳定可能产生的冲击和影响,国际社会应聚焦于人工智能军事化过程中相关技术、结构、机制和治理方面建设,通过搭建军用人工智能战略稳定框架,降低人工智能军事化应用过程中对全球战略稳定产生的负面影响,为建立新型全球战略稳定体系创造有利条件。
从技术层面解决人工智能的安全问题,就需要设计使用安全、可靠和可控的军用人工智能系统。首先,任何基于人工智能的军事系统,都应进行可靠的测试和评估,以确定系统的能力和局限性。其次,无论在何种紧急和复杂的情况下都避免使用完全自主运行和决策的人工智能系统,确保军用人工智能始终被人类所控制。再次,提高全球层面人工智能算法的透明性,探寻适用于各国人工智能军事化应用科学统一的可解释标准。
从具体实践来看,世界各国目前根据自身军事需要采取军用人工智能技术开发、部署和使用的不同做法,加大了全球层面应对人工智能技术挑战的难度。鉴于这一现实,国际社会有必要对安全可靠可控的军用人工智能技术进行讨论和谋划。一方面,根据人工智能技术的成熟程度,将人工智能自主武器系统进行统一分类和分级管控,严格禁止将不成熟的人工智能系统投入到实际战场;另一方面,在人工智能军事应用的研发、生产和应用部门间建立不同的技术能力监管层级,根据开发、测试、部署和使用任何特定人工智能军事应用的周期,为全球制定统一的技术监管标准。
根据人工智能军事化应用发展态势,当务之急在于全球层面的多边安全机制建设。针对人工智能技术滥用与现行国际法和习惯法相悖的情形,可在联合国的框架内对原有法律补充和修订,如在《特定常规武器公约》中进一步具体和细化军用人工智能的规范、原则,在《禁止核武器条约》中增加“不使用人工智能自主系统首先攻击核设施”等条目,以更好适应人工智能技术发展的新环境。各国还应健全人工智能武器扩散、转让和出口管控机制,以联合国《武器贸易条约》为基础,商讨和编制人工智能军用技术和产品的多边出口管制清单,防止极端恐怖组织等非国家行为体获得和滥用这些技术。
全球人工智能安全治理首先要构建多元共治的人工智能安全治理体系,除推动各国政府、国际组织、企业界、学术界等多个利益攸关方的协同参与外,需兼顾发展中国家同西方发达国家的共同参与。全球人工智能安全治理还应把安全监管放在突出位置,通过搭建全球人工智能军事应用多边监管合作平台,构建人工智能全球安全治理的监管框架和监管体系。此外,全球人工智能安全治理的价值体系构建也是国际社会亟待关注的重要问题,各国应在顾及人工智能军事应用理念差异的基础上,尽快制定人工智能军事研发和应用的全球通用价值准则。
值得注意的是,大国在全球安全治理方面始终扮演关键性和引领性的角色。作为全球人工智能技术研究和应用的领先者,中美两国有必要加强在全球人工智能安全治理领域的协调与合作,就如何建立全球层面的人工智能安全治理机制进行讨论,为全球军用人工智能技术治理合作起到示范作用。就中国自身而言,人工智能安全治理是国家关注的重要问题,推动人工智能安全治理的国际合作也是未来关注的重点方向。未来,中国宜继续本着共商、共建、共享的全球治理观和“智能向善”的理念,积极引领全球人工智能安全治理的发展进程,在人工智能领域推动人类命运共同体的构建。
传统全球战略稳定源于冷战时期美国和苏联之间战略核武器的博弈,并建立在核威慑理论的基础之上。后冷战时期,随着国际战略环境变化及新兴战略技术发展,全球战略稳定范式发生了新的变化。作为第四次工业革命的核心要素,人工智能所引领的技术革命正在延伸至军事领域,增加常规武器和核武器威慑力,并对以核力量为基础的全球战略稳定产生颠覆性影响。人工智能在全球军事化应用领域的迅速扩散及其所带来的负面效应值得我们高度关注。当前,大国间的战略竞争不断加剧,世界主要大国都在顺应时代发展潮流,将人工智能军事化视为在未来战场上取得绝对性军事优势的途径,并竭力将人工智能用于军事目的。在可预见的未来,如果世界军事强国盲目地沿着研发更智能武器的道路前进,那么很可能会把人工智能的军事应用变成通往世界末日的“捷径”。正因为如此,国际社会应聚焦于人工智能军事化过程中的技术、结构、机制和治理等方面建设,为建立起新型全球战略稳定体系创造有利条件。作为全球负责任的新兴科技大国,中国也应加快引领全球战略稳定建构的进程,为推动人工智能时代的全球战略稳定贡献中国智慧和中国方案。一方面,积极参与人工智能全球军事合作,推动制定具有普遍约束力的人工智能国际安全规范,为国际社会维护全球安全与稳定提供坚实基础;另一方面,积极引领人工智能全球安全治理,推动构建人类核安全命运共同体,为人工智能时代的全球战略稳定提供坚实动力。
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!