OpenAIの次の大きな課題
OpenAIは野心的な新しい研究目標を発表しました。AI研究者と呼ぶ、大規模で複雑な科学問題に独立して取り組むことができる、完全自動化されたエージェントベースのシステムを構築することです。MIT Technology Reviewとの独占インタビューで、最高科学責任者Jakub Pachocklは、このイニシアチブをOpenAIの今後数年間の北極星と説明し、推論モデル、コーディングエージェント、および解釈可能性に関する同社の業務の統合を表す統一された長期目標であると述べました。
時間枠は業界が数年間取引してきたより拡散的なAGI約束と異なる具体的で近期的なものです。OpenAIは2026年9月までに自律的なAI研究インターン(特定の研究問題に対して数日間独立して取り組むことができるシステム)を構築する予定です。人間が対処するには大きすぎたり複雑すぎたりする問題に対処できる完全なマルチエージェントAI研究者は、2028年のデビューを目指しています。
ブループリントとしてのCodex
Pachocklは、OpenAIの既存のCodexエージェントを証拠ベースであり、より野心的なAI研究者ビジョンの初期プロトタイプの両方として指摘しました。OpenAIが1月にリリースしたCodexは、複雑なプログラミングタスクを完了するために、コードを自律的に生成、実行、デバッグできるエージェントベースのコーディングシステムです。それはOpenAI内部で広く採用されており、Pachocklは会社の技術スタッフの大多数がCodexをワークフローの主要部分として使用していると述べています。
Pachocklが行った哲学的な飛躍は、AIシステムが複雑なコーディング問題を自律的に解決できる場合(創造的な推論、大きなタスクのサブタスクへの分解、拡張された作業セッション中の複雑な状態の追跡、エラー修正が必要)、同じ能力アーキテクチャを生物学、化学、物理学、数学などの分野の科学問題解決に拡張できるということです。
私たちの仕事は今、1年前と全く違うものになっています。もう誰も終日コードを編集していません。代わりに、あなたはCodexエージェントのグループを管理しています、とPachocklはMIT Technology Reviewに語りました。このビジョンは、同じマネジメント関係—人間が指示し、AIが実行する—が最終的には研究自体に適用でき、科学者がAIエージェントを指示して、実験的仮説を独立して追及し、文献をレビューし、分析を設計し、結果を生成できるようになることです。







