El próximo gran desafío de OpenAI

OpenAI ha anunciado una ambición investigadora muy amplia: construir lo que llama un investigador de IA—un sistema completamente automatizado basado en agentes capaz de abordar de manera independiente problemas científicos grandes y complejos. En una entrevista exclusiva con MIT Technology Review, el científico jefe Jakub Pachocki describió la iniciativa como la estrella polar de OpenAI para los próximos años, representando una convergencia del trabajo de la empresa en modelos de razonamiento, agentes de codificación e interpretabilidad en un objetivo unificado de horizonte largo.

El cronograma es concreto y a corto plazo de formas que distinguen este anuncio de las promesas AGI más difusas en las que la industria ha traficado durante años. OpenAI planea construir un investigador interno de IA autónomo—un sistema capaz de trabajar independientemente en problemas de investigación específicos durante días—para septiembre de 2026. El investigador de IA multi-agente completo, capaz de abordar problemas demasiado grandes o complejos para que los humanos los manejen, tiene como objetivo una presentación en 2028.

Codex como el plano

Pachocki señaló al agente Codex existente de OpenAI tanto como la base de evidencia como el prototipo inicial para la visión más ambiciosa del investigador de IA. Codex, que OpenAI lanzó en enero, es un sistema de codificación basado en agentes que puede generar, ejecutar y depurar código de forma autónoma para completar tareas de programación complejas. Ha sido ampliamente adoptado dentro del propio OpenAI, y Pachocki señala que la mayoría del personal técnico de la empresa ahora usa Codex como parte central de su flujo de trabajo.

El salto filosófico que Pachocki está haciendo es que si un sistema de IA puede resolver de forma autónoma problemas de codificación complejos—que requieren razonamiento creativo, descomposición de tareas grandes en subtareas, seguimiento de estado complejo durante sesiones de trabajo extendidas y corrección de errores—entonces la misma arquitectura de capacidad puede extenderse a la resolución de problemas científicos en dominios como biología, química, física y matemáticas.

Nuestros trabajos ahora son totalmente diferentes a lo que eran hace un año. Nadie realmente edita código todo el tiempo más. En su lugar, administras un grupo de agentes Codex, Pachocki dijo a MIT Technology Review. La visión es que la misma relación de administración—humano dirigiendo, IA ejecutando—podría eventualmente aplicarse a la investigación en sí, con científicos dirigiendo agentes de IA que persiguen independientemente hipótesis experimentales, revisan literatura, diseñan análisis y generan resultados.