Quand le fabricant d'outils révèle le plan
Pendant des mois, les développeurs utilisant Claude Code ont rassemblé les meilleures pratiques par essai-erreur, messages de blog et forums communautaires. Puis le créateur de l'outil a rompu son silence. Boris Cherny, qui dirige Claude Code chez Anthropic, a partagé son flux de travail de développement personnel dans un fil sur X qui s'est rapidement popularisé dans la communauté d'ingénierie.
"Si vous ne lisez pas les meilleures pratiques de Claude Code directement auprès de son créateur, vous êtes en retard en tant que programmeur," a écrit Jeff Tang, une voix éminente de développeurs. Kyle McNease l'a appelé le "moment ChatGPT" d'Anthropic — le point de basculement où une technologie cesse d'être impressionnante et commence à être indispensable.
Cinq agents à la fois: le modèle du commandant de flotte
Le cœur de l'approche de Cherny est le parallélisme. Plutôt que de travailler sur une tâche de développement de manière linéaire, Cherny exécute cinq instances de Claude simultanément dans des onglets de terminal séparés, les gérant comme un commandant gère les unités sur le terrain.
"Je fais fonctionner 5 Claudes en parallèle dans mon terminal," a écrit Cherny. "Je numérote mes onglets 1-5, et j'utilise les notifications système pour savoir quand Claude a besoin d'une entrée." Il exécute également des sessions supplémentaires dans le navigateur, en utilisant une commande de téléportation personnalisée pour transférer le travail entre les contextes de la machine web et locale.
Un agent exécute une suite de tests tandis qu'un autre refactorise du code hérité, un tiers rédige la documentation, et deux autres s'attaquent au travail de fonctionnalités indépendantes. Le rôle humain passe de l'écriture de code à la direction des agents et à la résolution des obstacles — un mode cognitif fondamentalement différent que Cherny compare à jouer à un jeu de stratégie en temps réel plutôt qu'à taper de la syntaxe.
Le cas du modèle le plus lent
L'une des révélations les plus contre-intuitive de Cherny était son choix de modèle. Dans une industrie obsédée par la vitesse d'inférence, il utilise exclusivement Opus 4.5 — le modèle le plus grand et le plus lent d'Anthropic — pour tout.
"J'utilise Opus 4.5 avec réflexion pour tout," a-t-il écrit. "C'est le meilleur modèle de codage que j'ai jamais utilisé, et même s'il est plus grand et plus lent que Sonnet, comme vous avez moins besoin de le diriger et qu'il est meilleur dans l'utilisation des outils, c'est presque toujours plus rapide qu'utiliser un modèle plus petit à la fin."
Le raisonnement est solide. Le goulot d'étranglement de latence dans le développement assisté par l'IA n'est pas la vitesse de génération de jetons — c'est le temps de correction humaine. Un modèle plus rapide mais moins capable accomplit les tâches rapidement mais nécessite une intervention fréquente pour corriger les erreurs. Un modèle plus lent mais plus précis amortit le coût de calcul tout en éliminant le coût de correction, et lorsque cinq instances s'exécutent en parallèle, l'avantage en temps réel s'aggrave considérablement.
CLAUDE.md: transformer chaque erreur en règle
Les LLM standard n'ont pas de mémoire persistente entre les sessions. L'équipe de Cherny aborde cela avec un fichier appelé CLAUDE.md archivé dans le référentiel git du projet. "Chaque fois que nous voyons Claude faire quelque chose d'incorrect, nous l'ajoutons à CLAUDE.md, pour que Claude sache ne pas le faire la prochaine fois," a-t-il expliqué.
Le fichier sert de manuel de règles croissant précédé du contexte de chaque session. Un examinateur humain détecte une erreur dans une demande d'extraction, marque Claude pour documenter l'erreur en tant que règle, et chaque session future en bénéficie. Au fil du temps, CLAUDE.md devient un instrument de précision accordé aux conventions spécifiques et aux pièges de chaque base de code.
La vérification comme vrai multiplicateur
Le flux de travail de Cherny donne à l'agent la capacité de vérifier son propre travail grâce à l'automatisation du navigateur, à l'exécution de commandes bash et aux exécutions de suites de tests. "Claude teste chaque changement que j'envoie à claude.ai/code en utilisant l'extension Claude Chrome," a-t-il écrit. "Il ouvre un navigateur, teste l'interface utilisateur, et itère jusqu'à ce que le code fonctionne et que l'expérience utilisateur se sente bien." Il estime que cette boucle de vérification améliore la qualité de sortie de 2 à 3 fois par rapport à la génération sans vérification — un effet multiplicatif qui s'applique indépendamment de la capacité du modèle sous-jacent.
Cet article est basé sur un reportage de VentureBeat. Lire l'article original.




