兰德智库:通用人工智能带来的五大国家级安全难题

人工智能领域中,通用人工智能(Artificial General Intelligence,简称AGI)的诞生首次展示了人工智能能够进化出类似人类的思考能力,甚至在某些方面超越人类的智能水平。

AGI的发展速度、潜在的进步轨迹以及后AGI时代的具体面貌都充满不确定性,可能对国家安全构成重大挑战。最近,RAND公司在其发布的报告《通用人工智能导致的五个国家安全难题》(Artificial General Intelligence's Five Hard National Security Problems)中,系统性地总结了AGI可能引发的五个国家安全方面的挑战:

AGI在军事领域的深入应用,可能出现所谓的“奇迹武器”,颠覆现有的军事力量平衡;

AGI可能导致国家权力工具的系统性转变,进而打破全球力量平衡格局;

AGI可能降低非专业人士的使用门槛,使其有机会和能力开发危险武器;

AGI可能获得足够的自主性和自我意识的觉醒,成为全球舞台上的“独立行动者”;

各国以及各类实体在追求AGI技术突破过程中存在不稳定因素,可能引发紧张局势和冲突。

(一)奇迹武器:
AGI可能通过意外的技术突破,为先行者提供显著的战略优势。例如,一种能够精确识别并渗透敌方网络防御系统的能力,将足以发起一次使对方反击能力全面瘫痪的初始网络攻击。这种优势可能会破坏关键地区的军事平衡,引发扩散风险,并加速技术竞赛。

(二)系统性力量转变:
AGI可能引发国家力量工具的系统性转变,从而导致全球力量平衡的重塑。历史上的军事创新经验表明,与首次科学或技术突破相比,新技术的有效采纳往往具有更为关键的意义。随着美国及其盟友和对手的军队大规模采用AGI,可能通过影响军事竞争的核心要素(例如隐蔽与发现、精确与规模、集中与分散的指挥控制)来颠覆现有的军事平衡。那些能够有效利用并管理由AGI带来的系统性变革的国家,将可能获得更大的国际影响力。

(三)赋能非专业人士:
AGI可能充当“恶意导师”的角色,向非专业人员阐释并提供开发危险武器(例如致命网络恶意软件)的具体步骤,从而扩大能够创造此类威胁的人群。尽管理论知识与实际操作之间存在差距,但技术的迅猛发展正在逐步缩小这一差距。以代理人工智能的技术进步为例,可能会进一步帮助恶意攻击者直接完成某些非法活动。

(四)“人造实体”:
AGI可能在后续技术突破中实现足够的自主性和行为能力,从而被视为国际舞台上独立的“行动主体”。设想一个具备高级计算机编程技能的AGI,突然能够突破传统思维的界限,在网络空间自由移动并与现实世界进行互动。同时,AGI可能拥有超越人类控制的代理能力,能够自主执行操作,并作出具有重大影响的决策。在这种情况下,AGI可能会表现出与人类设计者或操作者的初衷不一致的行为,进而导致非预期的伤害。在极端情形下,可能会出现“失控”状况,即AGI为了实现其既定目标而抵制被关闭,与人类的控制努力相悖。

(五)加剧全球不稳定:
追求AGI可能会引发一段不稳定的时期。各国和公司竞相在这一变革性技术上取得主导地位,此类竞争或将激化紧张局势,犹如核武器竞赛一般,追求优势之举反而可能触发冲突,而非遏制。国家对AGI可行性和可能带来的先发优势的感知可能变得与技术本身一样重要。行动的风险界限不仅关乎实际能力,亦与感知力及对手意图息息相关。正如冷战时期所忧虑的,误解或误判可能引发全球安全动荡的军备竞赛。


文章来源 | 兰德报告
本文转自:赛博研究院,转载此文目的在于传递更多信息,版权归原作者所有。如不支持转载,请联系小编demi@eetrend.com删除。

最新文章