作者:Matthew Hutson
人工智能领域自诞生以来,就立足于一个前提:机器终有一天能够实现自我升级。1966年,英国数学家I. J. Good曾写道:“超级智能机器能够设计出比自身更强的机器;届时必将爆发一场‘智能大爆炸’,人类智能将被远远甩在身后。”长期以来,AI研究者始终对递归自我进化(RSI,recursive self-improvement)怀着既向往又忌惮的复杂心态。如今,人工智能技术的飞速进步,让人不禁发问:这一进化过程的部分环节,是否已然悄然开启?
递归自我进化在不同人眼中有着截然不同的含义。有人把它当作舆论噱头,借此推动行业监管;也有人将其用作营销话术。一部分人认为它代表完全自主的智能迭代闭环,另一部分人则把凡是用技术创造新技术的行为,都视作递归自我进化。
可以肯定的是,递归自我进化是一个宽泛渐变的谱系概念。在最严格的定义下,研究者用这个术语指代一类智能系统:它们不仅能优化输出结果,还能优化自身的迭代进化机制 —— 自主构思方案、评估效果、修正自身运行方法,全程无需人类指令介入。以这一标准衡量,当下绝大多数AI系统都达不到要求。它们可以辅助打造更强的人工智能,但仍依赖人类设定目标、定义评判标准,并决定保留哪些优化改动。当下的核心问题,不在于这种自我进化是否已以某种形式存在,而在于智能迭代闭环究竟已经完成了多大程度的自主化。
自我进化的层层基石
数十年来,研究人员一直在逐步搭建递归自我进化(RSI) 的各项基础要素。机器学习算法能够自动调校程序参数,使其可以玩游戏、甚至编写全新程序。一类名为进化算法的机器学习方法,能够对设计方案进行多元化衍生与迭代优化,其中也包括其他算法。过去十年间,自动机器学习(AutoML) 实现了 AI 流程链路多环节的自动化,涵盖神经网络等机器学习模型的架构搭建、训练与效果评估全流程。
如今,GPT、Gemini、Claude、Grok等大语言模型延续了这一发展趋势。这类模型最核心的用途之一就是编写代码,甚至能编写用于迭代自身新版本的代码。今年2月,OpenAI披露,GPT-5.3-Codex在自身研发过程中起到了关键作用:协助训练排错、管理模型部署、分析评测结果。Anthropic也宣称,公司目前绝大多数代码都由Claude Code编写。当然,这些系统仍需人类进行任务指导与成果核验。
去年,谷歌深度思维发布了一套名为AlphaEvolve的系统,定位是面向科学探索与算法创新的智能编程代理。它依托大语言模型引导解决方案的进化迭代,可用于神经网络架构优化、数据中心任务调度、芯片设计等场景。它还算不上完整的递归闭环,因为仍需人类为AlphaEvolve划定待解决问题,并制定效果评估标准。但每一次技术突破,都会进一步提升科研人员打造下一代AI技术的能力。
谷歌深度思维参与开发 AlphaEvolve的计算机科学家Matej Balog表示:“这也是一个人机深度协作的过程。”“很多时候,我们观察系统自主发现的成果,反而能从中获得新的认知与启发。”该系统已多次给研发团队带来意外惊喜。Balog称:“我们的目标是借助人工智能,发掘那些超出人类直觉认知的全新算法。我认为目前我们已经初步证明,这不再是不切实际的空想。”
与此同时,谷歌深度思维早前芯片设计系统AlphaChip的联合负责人,创办了一家名为Ricursive Intelligence的初创公司,专注用人工智能设计AI芯片。联合创始人Azalia Mirhoseini表示:“我们有望把芯片设计周期从一到两年大幅缩短至数天。”第一阶段,主要为人类设计师提供辅助;第二阶段,为没有自研设计团队的企业实现设计流程自动化;联合创始人Anna Goldie称,到第三阶段,公司将实现递归式正向循环:用AI设计更强芯片,再用更强芯片训练更先进的AI —— 不过全程仍会处于人类监督之下。
还有其他项目聚焦于智能体自主调整自身行为。去年,不列颠哥伦比亚大学与Sakana AI的研究人员联合发布了达尔文哥德尔机器(DGM),借助进化算法来优化基于大语言模型的代码智能体。关键亮点在于:这类智能体能够修改自身代码(尚不涉及底层大模型本体),且修改能力还在持续变强。其新版本甚至可以调整用于自我迭代的底层元机制。
该研究团队还研发了AI Scientist,相关成果于今年3月发表在《自然》期刊上,目标是实现完整科研链路的自动化(https://www.nature.com/articles/s41586-026-10265-5)。它可以自主提出研究选题、通过软件开展实验、撰写学术论文,还能对论文进行同行评审。该项目预示着:未来AI研发全流程 —— 不只限于写代码,还包括实验开展与效果评估 —— 都有可能纳入自动化闭环。
不列颠哥伦比亚大学的计算机科学家Jeff Clune参与研制了达尔文哥德尔机器(DGM)与AI科学家两大项目,他表示,用AI迭代优化AI已是“硅谷最热门的研究方向之一”。他认为,具备递归自我进化能力的系统即将问世,并断言递归自我提升(RSI)将迅速重塑科技格局,深刻改变社会与文化的方方面面。
AI自我进化仍存局限
目前仍有诸多壁垒尚未突破。Clune称,AI在创意生成、方案落地、成果评判上仅达到尚可水准,远未做到极致顶尖。美国创新基金会高级研究员Dean Ball表示,AI科研者的能力仍不及人类顶尖科学家。他说:“AI 或许终有一天能复刻天才级科研能力,但绝不是明年。短期内,AI只能替代那些埋头打磨算法效率、重复繁琐工作的基层从业者。”
即便这类能力持续提升,智能迭代也未必能顺畅复利增长。艾伦人工智能研究所的计算机科学家Nathan Lambert近期发文提出:未来大概率不会出现理想的递归自我进化,取而代之的会是有损自我进化(LSI) —— 各类阻力不断增加,拖慢智能迭代的飞轮增速。一方面,大型AI系统本身复杂度越来越高,未来AI研究者的核心工作将变成管控系统复杂度,而非只对局部模块做微调优化。另一方面,顶尖AI系统的研发成本动辄数十亿美元,没人愿意放任耗费巨资的AI完全自主运行、不受约束。
除此之外,还有更宏观的现实制约。Ball曾专门撰文分析递归自我进化,并坦言自己不属于末日悲观派 —— 这类人群认为AI自我进化会失控并摧毁人类文明。他指出,AI想要掌控世界,中间需要跨过大量实际环节,从落地实验研发到周旋地缘政治,缺一不可。再者,人类知识分散且多为隐性经验,很难被打包整合进单一AI模型里。例如芯片制造商台积电的技术实力,源自其9万名员工协作形成的集体智慧,绝非单个智能体可以复刻。
完全成熟的递归自我进化(RSI),不仅需要设计软件与芯片,还要自建数据中心、运营发电厂、开采矿产,且全部依靠可自我复制的机器人完成。基于以上种种原因,部分研究者认为人类仍将始终处于核心主导地位。Meta研究院的Jason Weston与Jakob Foerster近期撰文提出:比起追求纯粹的机器自我进化,“人类更现实、也更理想的目标,是最大化人机协同共进。”他们写道,保留人类参与决策环节,既能让技术发展更快,也更安全:人类既能贡献自身洞察,也能引导AI朝着造福人类的方向演进。
递归自我进化会毁灭世界吗?
尽管如此,不少科学家并未排除递归自我进化失控的可能性,这种情况有时也被称作技术奇点。去年,研究人员就AI研发自动化与递归自我进化议题,采访了25位人工智能领域专家(https://arxiv.org/abs/2603.03338)。除两人之外,其余所有人都认可智能爆炸存在发生的可能性。受访专家还普遍认为,各大AI企业会把具备自我进化能力的模型留作内部自用,不会对外公开部署。该论文合著者、蒙特利尔大学计算机科学家David Scott Krueger表示:“这种组合态势着实令人警惕。”他担忧这类高风险研发正在公众视野之外悄悄推进。
Krueger创办了人工智能安全非营利机构Evitable,主张全球暂缓前沿 AI 研发。他称:“这是在拿全人类的命运做赌注。”他还提出一条触发暂停研发的红线标准:当99%的代码由AI编写时,就应当按下暂停键。“而我认为,我们眼下或许正处在跨过这条红线的边缘。”
即便Ball把技术奇点称作“纯粹幼稚科幻式的无稽之谈”,他也认为,开展递归自我进化研究的前沿AI实验室应被严密监管,防止相关模型落入居心不良之人手中 —— 这类人可能利用这些模型加速网络攻击、生物武器的研发。他表示,递归自我进化固然有风险,但风险可以管控。
人工心智社会
人们想象递归自我进化时,往往以为会出现单个超级智能AI,且智力不断单方面飙升。但现实形态更可能接近生物演化:大量形态各异的智能体涌现、协同共生。Krueger认为,未来或将迎来一场人工生命体的寒武纪大爆发。它们会形成自身的生态系统、文化形态与经济体系。
Clune认为,进化算法以及无固定强目标的开放式演化流程,将成为实现递归自我进化(RSI)的关键。智能体之间的协作同样至关重要。像“AI Scientist”这类能把研究成果整理成规范学术论文的系统,为智能体之间共享成果、相互借鉴迭代提供了可行路径。Clune表示:“这是智能体与其他智能体之间很好的沟通方式。”
人类科研人员或许会逐渐淡出AI研究领域,但这是一个缓慢渐进的过程。Clune认为,首先,人类会从底层琐碎工作中解脱出来,角色更像教授或项目负责人,只负责选定研究方向。接下来,人类会进一步退化为项目主管或企业决策者,只制定宏观科研规划。最终,人类将只承担监督管控职能,而他希望人类永远不要放弃这一核心角色。Clune坦言,如果有机器取代他成为AI科学家,他会感到些许失落,因为他十分热爱这份充满成就感的工作。但他认为这种代价值得付出:“哪怕舍弃自己热爱的事业,只要能攻克癌症,我也愿意。”
本文转自:IEEE电气电子工程师学会,转载此文目的在于传递更多信息,版权归原作者所有。如不支持转载,请联系小编demi@eetrend.com删除。





