时间:2024-04-23
龙 坤 徐能武
在人工智能军事应用深刻影响国家安全,甚至可能危及全球战略稳定的背景下,各方逐步认识到必须高度重视其潜在风险,对人工智能造成的国际安全问题进行全球层面的治理。当前人工智能全球安全治理的基本结构正逐步生成,但仍面临许多问题。
人工智能技术是一个类似于电力的“通用技术”和“使能技术”,能够赋能各行各业,并影响全球的政治经济发展。因而,关于其造成的国际安全问题的治理也必然涉及多个利益攸关方。在人工智能全球安全治理这一议题上,存在着十分多元的治理主体,它们通过磋商谈判、积极呼吁、发表宣言等形式推进这一领域的治理进程。
从理论上看,人工智能全球安全治理的对象包括前述人工智能带来的所有国际安全问题。而在当下的现实发展中,人工智能全球安全治理以对致命性自主武器系统的探讨和确立规制为主,究其原因,有以下几个方面。
总之,当前国际社会已在致命性自主武器系统议题方面达成了11项不具有法律约束力的指导原则,但在战略稳定、危机管控、自主武器扩散等其他较为紧迫的人工智能全球安全治理领域,相关机制和方案仍暂付阙如。人工智能的全球安全治理的实质性进展有限,仍存在很多需要解决的问题。
第一,在核领域,拥核国家须强化合作,尽快签订相关双边和多边军控协定,禁止将人工智能技术用于核指挥控制系统中,确保人类控制所有核武器发射平台。核领域对国际安全的影响是最具毁灭性的,攸关全世界的生死存亡,因而管控人工智能在这一领域的风险尤为紧迫。如前所述,将人工智能应用到核武器的预警、控制以及运载系统中,可能会导致意外核风险的升级,对国际战略稳定造成灾难性后果。因此,核大国之间要尽快推进对话,优先对将人工智能应用于核武器系统的行为设定强有力的限制措施,尤其是有核国家间达成由人类严格控制核发射决定权的协议,确保人类控制所有核武器发射平台。这样才能降低意外核战争的风险,避免在没有人参与的情况下由于机器故障或误判直接导致核战争爆发等灾难性场景的出现。由于核武器的极端破坏性,各国必须确保人类严格控制核发射决策,同时明确人工智能赋能的无人武器装备不应用作核运载平台,避免人类失去对核武器的控制而发生核事故或意外核战争。
针对不同自主程度的武器系统及其安全风险,需要采取相应的治理举措。完全自主的武器系统,应当在国际社会进行预防性禁止,而半自主或其他低自主的武器系统,则应当采取限制措施、测试评估等方式进行风险管控。
人工智能作为科技发展的前沿领域,本质上是全球性的通用泛在技术和先进生产力,其在全球化时代产生的安全风险也必然会波及全球,可能会严重威胁战略稳定,降低战争门槛,提高冲突频率,并给国际恐怖主义大开方便之门,甚至可能诱发超级人工智能的崛起,威胁人类整体安全。要应对人工智能带来的多重国际安全风险,需要全世界的主权国家、国际组织、跨国公司、全球公民社会等国际关系行为体加强合作,共同参与和贡献智慧,推动人工智能全球安全治理的进程,使得制度建设和伦理规范跟上人工智能发展演进的速度。作为引领人工智能发展应用的“领头羊”国家和世界前两大经济体,中、美两国积极承担这一领域的大国责任尤为重要。当前一段时期,正是管控人工智能国际安全风险的关键窗口期,两国需要强化合作,共同引领人工智能的全球安全治理进程,通过基于风险排序和时间紧迫度的分层治理方式化解安全风险,维护全球战略稳定。同时,也需充分发挥国际组织和全球公民社会的推动作用,强化主权国家、国际组织、全球公民社会等治理主体的良性互动和相互合作,形成松散耦合的人工智能全球安全治理机制,合力推进这一进程的有序前行。
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!