Quando o fabricante de ferramentas revela o blueprint
Por meses, desenvolvedores usando Claude Code reuniram melhores práticas através de tentativa e erro, postagens em blogs e fóruns comunitários. Então o criador da ferramenta quebrou seu silêncio. Boris Cherny, que lidera Claude Code na Anthropic, compartilhou seu fluxo de trabalho de desenvolvimento pessoal em um thread no X que rapidamente se tornou viral na comunidade de engenharia.
"Se você não está lendo as melhores práticas do Claude Code diretamente do seu criador, você está atrasado como programador," escreveu Jeff Tang, uma voz proeminente de desenvolvedores. Kyle McNease chamou de "momento ChatGPT" da Anthropic — o ponto de inflexão onde uma tecnologia deixa de ser impressionante e começa a ser indispensável.
Cinco agentes de uma vez: o modelo do comandante de frota
O cerne da abordagem de Cherny é o paralelismo. Em vez de trabalhar através de uma tarefa de desenvolvimento linearmente, Cherny executa cinco instâncias do Claude simultaneamente em abas de terminal separadas, gerenciando-as da maneira como um comandante gerencia unidades no campo.
"Executo 5 Claudes em paralelo no meu terminal," escreveu Cherny. "Número minhas abas 1-5, e uso notificações do sistema para saber quando Claude precisa de entrada." Ele também executa sessões adicionais no navegador, usando um comando de teletransporte personalizado para transferir trabalho entre contextos de máquina web e local.
Um agente executa um conjunto de testes enquanto outro refatora código legado, um terceiro redige documentação, e dois mais lidam com trabalho de recursos independentes. O papel humano muda de escrever código para dirigir agentes e resolver bloqueadores — um modo cognitivo fundamentalmente diferente que Cherny compara a jogar um jogo de estratégia em tempo real em vez de digitar sintaxe.
O caso do modelo mais lento
Uma das revelações mais contraintuitivas de Cherny foi sua escolha de modelo. Em uma indústria obcecada com velocidade de inferência, ele usa exclusivamente Opus 4.5 — o modelo maior e mais lento da Anthropic — para tudo.
"Uso Opus 4.5 com pensamento para tudo," escreveu. "É o melhor modelo de codificação que já usei, e embora seja maior e mais lento que Sonnet, já que você tem que dirigi-lo menos e é melhor em uso de ferramentas, é quase sempre mais rápido que usar um modelo menor no final."
O raciocínio é sólido. O gargalo de latência em desenvolvimento assistido por IA não é velocidade de geração de tokens — é tempo de correção humana. Um modelo mais rápido mas menos capaz completa tarefas rapidamente mas requer intervenção frequente para corrigir erros. Um modelo mais lento mas mais preciso pré-carrega o custo de computação enquanto elimina o custo de correção, e quando cinco instâncias executam em paralelo, a vantagem de tempo de parede se compõe significativamente.
CLAUDE.md: transformando cada erro em uma regra
LLMs padrão não têm memória persistente entre sessões. O time de Cherny aborda isso com um arquivo chamado CLAUDE.md verificado no repositório git do projeto. "Sempre que vemos Claude fazer algo incorretamente, adicionamos ao CLAUDE.md, para que Claude saiba não fazer na próxima vez," explicou.
O arquivo serve como um manual de regras crescente acrescido ao contexto de cada sessão. Um revisor humano identifica um erro em um pull request, marca Claude para documentar o erro como uma regra, e cada sessão futura se beneficia. Com o tempo, CLAUDE.md se torna um instrumento de precisão ajustado às convenções e armadilhas específicas de cada base de código.
Verificação como o verdadeiro multiplicador
O fluxo de trabalho de Cherny oferece ao agente a capacidade de verificar seu próprio trabalho através de automação do navegador, execução de comandos bash e execuções de conjunto de testes. "Claude testa cada mudança que coloco em claude.ai/code usando a extensão Claude Chrome," escreveu. "Abre um navegador, testa a UI, e itera até que o código funcione e a UX se sinta bem." Ele estima que este ciclo de verificação melhora a qualidade de saída em 2 a 3 vezes comparado com geração sem verificação — um efeito multiplicativo que se aplica independentemente da capacidade do modelo subjacente.
Este artigo é baseado em reportagem da VentureBeat. Leia o artigo original.




