OpenAI 的下一个宏伟目标

OpenAI 宣布了一项广泛的新研究雄心:建设所谓的 AI 研究员 — 一个完全自动化、基于智能体的系统,能够独立解决大型复杂科学问题。在与《MIT 技术评论》的独家采访中,首席科学家 Jakub Pachocki 将这一倡议描述为 OpenAI 未来几年的北极星,代表了公司在推理模型、编码智能体和可解释性工作的融合,形成统一的长期目标。

时间表是具体的、近期的,这使得这一宣布与业界多年来所做的更模糊的 AGI 承诺不同。OpenAI 计划在 2026 年 9 月前建设一个自主 AI 研究实习生 — 一个能够独立从事特定研究问题数天的系统。完整的多智能体 AI 研究员,能够解决人类难以管理的过于庞大或复杂的问题,目标是在 2028 年推出。

Codex 作为蓝图

Pachocki 指出 OpenAI 现有的 Codex 智能体既是证据基础,也是更雄心勃勃的 AI 研究员愿景的早期原型。Codex 是 OpenAI 在 1 月发布的基于智能体的编码系统,能够自主生成、运行和调试代码以完成复杂的编程任务。它在 OpenAI 内部得到了广泛采用,Pachocki 指出公司的大多数技术人员现在都将 Codex 作为工作流程的核心部分。

Pachocki 正在做的哲学跳跃是,如果 AI 系统能够自主解决复杂的编码问题 — 这需要创意推理、大任务分解为子任务、在延长的工作会话中追踪复杂状态以及错误纠正 — 那么同样的能力架构可以扩展到科学问题解决,涉及生物学、化学、物理学和数学等领域。

我们的工作现在与一年前完全不同。没有人真的再一直编辑代码了。相反,你管理一组 Codex 智能体,Pachocki 告诉《MIT 技术评论》。这个愿景是,同样的管理关系 — 人类指导、AI 执行 — 最终可能适用于研究本身,科学家指导 AI 智能体独立追求实验假设、审查文献、设计分析并生成结果。

为什么是现在:推理模型的突破

对自主研究能力的更新雄心植根于所谓的推理模型的出现 — AI 系统不仅要产生输出,而是要逐步解决问题,在到达死胡同时回溯。推理模型使 AI 系统在延长的自主工作中质量上得到显著提高:它们可以在较长的解决问题会话中保持连贯的上下文,并以早期语言模型无法做到的方式捕捉并纠正自身的错误。

OpenAI 也一直在为其训练管道提供复杂的任务示例 — 来自数学和编程竞赛的困难谜题 — 这些要求模型学习如何管理非常大的上下文、将问题分解为子任务,并在延长的时间内维持有效的推理。Pachocki 认为这种训练方法,结合连续模型代次之间的总体能力改进,已经使公司达到了在当前发展轨迹内可实现自主研究的临界点。

最近的结果为 Pachocki 的乐观主义提供了一些经验基础。OpenAI 研究人员已使用 GPT-5(为 Codex 提供支持的模型)发现了先前未解决的数学问题的新解决方案,并在生物学和物理学的特定谜题上取得进展 — 这些成就虽然范围有限,但表明该模型能够生成真正新颖的科学贡献,而不仅仅是总结现有知识。