Cuando el fabricante de herramientas revela el plano
Durante meses, los desarrolladores que usan Claude Code reunieron las mejores prácticas a través de prueba y error, publicaciones de blog y foros comunitarios. Entonces el creador de la herramienta rompió su silencio. Boris Cherny, quien lidera Claude Code en Anthropic, compartió su flujo de trabajo de desarrollo personal en un hilo en X que se volvió viral rápidamente en la comunidad de ingeniería.
"Si no estás leyendo las mejores prácticas de Claude Code directamente de su creador, estás rezagado como programador", escribió Jeff Tang, una voz importante de desarrolladores. Kyle McNease lo llamó el "momento ChatGPT" de Anthropic, el punto de inflexión donde una tecnología deja de ser impresionante y comienza a ser indispensable.
Cinco agentes a la vez: el modelo del comandante de flota
El centro del enfoque de Cherny es el paralelismo. En lugar de trabajar a través de una tarea de desarrollo linealmente, Cherny ejecuta cinco instancias de Claude simultáneamente en pestañas de terminal separadas, administrándolas como un comandante administra unidades en el campo.
"Ejecuto 5 Claudes en paralelo en mi terminal", escribió Cherny. "Número mis pestañas 1-5, y uso notificaciones del sistema para saber cuándo Claude necesita entrada." También ejecuta sesiones adicionales en el navegador, usando un comando de teletransporte personalizado para transferir trabajo entre contextos de máquina web y local.
Un agente ejecuta un conjunto de pruebas mientras otro refactoriza código heredado, un tercero redacta documentación, y dos más abordan trabajo de características independientes. El papel del humano cambia de escribir código a dirigir agentes y resolver bloqueadores, un modo cognitivo fundamentalmente diferente que Cherny compara con jugar un juego de estrategia en tiempo real en lugar de escribir sintaxis.
El caso del modelo más lento
Una de las revelaciones más contraintuituivas de Cherny fue su elección de modelo. En una industria obsesionada con la velocidad de inferencia, utiliza exclusivamente Opus 4.5, el modelo más grande y más lento de Anthropic, para todo.
"Uso Opus 4.5 con pensamiento para todo", escribió. "Es el mejor modelo de codificación que he usado, y aunque es más grande y más lento que Sonnet, como tienes que dirigirlo menos y es mejor en el uso de herramientas, casi siempre es más rápido que usar un modelo más pequeño al final."
El razonamiento es sólido. El cuello de botella de latencia en el desarrollo asistido por IA no es la velocidad de generación de tokens, es el tiempo de corrección humana. Un modelo más rápido pero menos capaz completa tareas rápidamente pero requiere intervención frecuente para corregir errores. Un modelo más lento pero más preciso precarga el costo de cómputo mientras elimina el costo de corrección, y cuando cinco instancias se ejecutan en paralelo, la ventaja de tiempo real se multiplica significativamente.
CLAUDE.md: Convirtiendo cada error en una regla
Los LLM estándar no tienen memoria persistente entre sesiones. El equipo de Cherny aborda esto con un archivo llamado CLAUDE.md que se verifica en el repositorio git del proyecto. "Cada vez que vemos que Claude hace algo incorrectamente, lo agregamos a CLAUDE.md, para que Claude sepa que no lo haga la próxima vez", explicó.
El archivo sirve como un manual de reglas creciente que se antepone al contexto de cada sesión. Un revisor humano detecta un error en una solicitud de extracción, etiqueta Claude para documentar el error como una regla, y cada sesión futura se beneficia. Con el tiempo, CLAUDE.md se convierte en un instrumento de precisión sintonizado con las convenciones y trampas específicas de cada base de código.
Verificación como el verdadero multiplicador
El flujo de trabajo de Cherny le da al agente la capacidad de verificar su propio trabajo a través de automatización del navegador, ejecución de comandos bash y ejecuciones de conjuntos de pruebas. "Claude prueba cada cambio que envío a claude.ai/code usando la extensión Chrome de Claude", escribió. "Abre un navegador, prueba la UI, e itera hasta que el código funciona y la UX se siente bien." Estima que este bucle de verificación mejora la calidad de salida en 2 a 3 veces en comparación con la generación sin verificación, un efecto multiplicativo que se aplica independientemente de la capacidad del modelo subyacente.
Este artículo se basa en reportajes de VentureBeat. Lee el artículo original.




