来源:外交部
人工智能技术的快速发展及其广泛应用,正深刻改变人类生产和生活方式,给世界带来巨大机遇的同时,也带来难以预知的安全挑战。特别值得关注的是,人工智能技术的军事应用,在战略安全、治理规则、道德伦理等方面可能产生深远影响和潜在风险。
人工智能安全治理是人类面临的共同课题。随着人工智能技术在各领域的广泛应用,各方普遍对人工智能军事应用乃至武器化风险感到担忧。
在世界和平与发展面临多元挑战的背景下,各国应秉持共同、综合、合作、可持续的全球安全观,通过对话与合作,就如何规范人工智能军事应用寻求共识,构建有效的治理机制,避免人工智能军事应用给人类带来重大损害甚至灾难。
加强对人工智能军事应用的规范,预防和管控可能引发的风险,有利于增进国家间互信、维护全球战略稳定、防止军备竞赛、缓解人道主义关切,有助于打造包容性和建设性的安全伙伴关系,在人工智能领域践行构建人类命运共同体理念。
我们欢迎各国政府、国际组织、技术企业、科研院校、民间机构和公民个人等各主体秉持共商共建共享的理念,协力共同促进人工智能安全治理。
为此,我们呼吁:
——战略安全上,各国尤其是大国应本着慎重负责的态度在军事领域研发和使用人工智能技术,不谋求绝对军事优势,防止加剧战略误判、破坏战略互信、引发冲突升级、损害全球战略平衡与稳定。
——军事政策上,各国在发展先进武器装备、提高正当国防能力的同时,应铭记人工智能的军事应用不应成为发动战争和追求霸权的工具,反对利用人工智能技术优势危害他国主权和领土安全的行为。
——法律伦理上,各国研发、部署和使用相关武器系统应遵循人类共同价值观,坚持以人为本,秉持“智能向善”的原则,遵守国家或地区伦理道德准则。各国应确保新武器及其作战手段符合国际人道主义法和其他适用的国际法,努力减少附带伤亡、降低人员财产损失,避免相关武器系统的误用恶用,以及由此引发的滥杀滥伤。
——技术安全上,各国应不断提升人工智能技术的安全性、可靠性和可控性,增强对人工智能技术的安全评估和管控能力,确保有关武器系统永远处于人类控制之下,保障人类可随时中止其运行。人工智能数据的安全必须得到保证,应限制人工智能数据的军事化使用。
——研发操作上,各国应加强对人工智能研发活动的自我约束,在综合考虑作战环境和武器特点的基础上,在武器全生命周期实施必要的人机交互。各国应始终坚持人类是最终责任主体,建立人工智能问责机制,对操作人员进行必要的培训。
——风险管控上,各国应加强对人工智能军事应用的监管,特别是实施分级、分类管理,避免使用可能产生严重消极后果的不成熟技术。各国应加强对人工智能潜在风险的研判,包括采取必要措施,降低人工智能军事应用的扩散风险。
——规则制定上,各国应坚持多边主义、开放包容的原则。为跟踪技术发展趋势,防范潜在安全风险,各国应开展政策对话,加强与国际组织、科技企业、技术社群、民间机构等各主体交流,增进理解与协作,致力于共同规范人工智能军事应用并建立普遍参与的国际机制,推动形成具有广泛共识的人工智能治理框架和标准规范。
——国际合作上,发达国家应帮助发展中国家提升治理水平,考虑到人工智能技术的军民两用性质,在加强监管和治理的同时,避免采取以意识形态划线、泛化国家安全概念的做法,消除人为制造的科技壁垒,确保各国充分享有技术发展与和平利用的权利。