当工具制造者揭示蓝图时
数月来,使用Claude Code的开发者通过试错、博客文章和社区论坛拼凑出最佳实践。然后,这个工具的创建者打破了沉默。领导Anthropic的Claude Code的Boris Cherny在X上分享了他的个人开发工作流,迅速在工程界引发了病毒式传播。
"如果你没有直接从它的创建者那里阅读Claude Code最佳实践,你就落后了,"著名开发声音Jeff Tang写道。Kyle McNease称之为Anthropic的"ChatGPT时刻"——技术从令人印象深刻变成必不可少的转折点。
五个代理同时工作:舰队指挥官模型
Cherny方法的核心是并行性。Cherny不是按部就班地完成开发任务,而是在独立的终端标签中同时运行五个Claude实例,像指挥官管理战场上的单位一样管理它们。
"我在终端中并行运行5个Claude,"Cherny写道。"我将选项卡编号为1-5,并使用系统通知来了解何时需要Claude输入。"他还在浏览器中运行其他会话,使用自定义传送命令在网络和本地机器上下文之间切换工作。
一个代理运行测试套件,同时另一个重构遗留代码,第三个起草文档,两个处理独立功能工作。人类的角色从编写代码转变为指挥代理和解决阻碍——Cherny将其比作玩实时战略游戏而不是输入语法的根本上不同的认知模式。
最慢模型的情况
Cherny最反直觉的启示之一是他的模型选择。在一个痴迷于推理速度的行业中,他专门使用Opus 4.5——Anthropic最大、最慢的模型——用于所有事情。
"我对所有事情都使用Opus 4.5进行思考,"他写道。"这是我使用过的最好的编码模型,尽管它比Sonnet更大更慢,但由于你需要更少的方向处理,它在工具使用方面更好,最终几乎总是比使用更小模型更快。"
推理是合理的。AI辅助开发中的延迟瓶颈不是令牌生成速度——而是人类更正时间。一个更快但能力较低的模型快速完成任务,但需要频繁的干预来修复错误。一个更慢但更准确的模型预先加载计算成本,同时消除更正成本,当五个实例并行运行时,实时优势会显著增加。
CLAUDE.md:将每个错误变成规则
标准LLM在会话间没有持久记忆。Cherny的团队用一个名为CLAUDE.md的文件来解决这个问题,该文件被检入项目的git存储库。"每当我们看到Claude做错了什么,我们就将其添加到CLAUDE.md中,所以Claude下次知道不要这样做,"他解释道。
该文件作为一个不断增长的规则手册,前置于每个会话的上下文中。人类审阅者在拉取请求中发现错误,标记Claude将错误记录为规则,每个未来会话都会受益。随着时间的推移,CLAUDE.md成为一个精密仪器,针对每个代码库的特定约定和陷阱进行调整。
验证作为真正的倍增器
Cherny的工作流使代理能够通过浏览器自动化、bash命令执行和测试套件运行来验证自己的工作。"Claude使用Claude Chrome扩展测试我登陆到claude.ai/code的每一个更改,"他写道。"它打开浏览器,测试UI,并反复迭代直到代码工作并且UX感觉良好。"他估计这个验证循环与没有验证的生成相比提高了2到3倍的输出质量——一个乘法效应,无论基础模型的能力如何都适用。
本文基于VentureBeat的报道。阅读原始文章。
Originally published on venturebeat.com




