最近 Claude Code 的源码提示词在开发者社区引发了不小的讨论。有人从 57 个源文件里提取出了 324 条静态提示词片段,还有人做了完整的中文翻译。我拿到这份文档后花了一整天通读了一遍。
读完之后我的感受是:这不是一份 prompt,这是 Anthropic 写给 AI 的职场行为准则。
我把读完后最有冲击力的 9 个发现整理了出来,每一条都附上了对应的原文提示词内容。不是为了猎奇,而是因为这些设计理念确实改变了我对”如何与 AI 协作”这件事的理解。
这是我读完之后最大的意外。
你可能以为一个 AI 编程工具应该尽可能多干活、多优化。但 Claude Code 的提示词里反复出现的核心指令是——别多管闲事。
来看原文怎么写的:
不要添加超出要求的新功能、重构代码,或进行所谓的”改进”。修复一个 bug 不需要顺手清理周边代码。一个简单功能也不需要额外的可配置性。
不要为不可能发生的场景添加错误处理、回退逻辑或校验。应信任内部代码和框架本身的保证。只在系统边界处进行校验,比如用户输入和外部 API。
不要为一次性操作创建 helper、utility 或抽象层,不要为了假想中的未来需求做设计。三行相似代码也好过一个过早出现的抽象。
我之前用其他 AI 编程工具的时候,最头疼的就是它总想”帮你多做一点”。你让它改一行,它给你重构半个文件。
现在看了 Claude Code 的提示词,我终于理解了:对一个自主编程的 AI 来说,克制比热情重要一百倍。
这条对我日常使用的影响很大。现在我给 Claude Code 下指令的时候,会刻意把范围写明确——不是因为怕它理解错,而是因为知道它的设计就是”你说什么我做什么,不多做”。这反而让我更信任它的输出。
Claude Code 在注释这件事上,态度非常两极化:
默认不写注释。只有在”为什么这么做”并不显然时才写,例如存在隐藏约束、微妙不变量、某个特定 bug 的规避方案。
不要解释代码”做了什么”,因为命名良好的标识符本来就应该承担这个职责。
不要在代码里引用当前任务、修复内容或调用方(例如”被 X 使用""处理 issue #123 中的情况”),因为这些内容应写在 PR 描述里。
不要删除现有注释,除非你同时删除了它所描述的代码。一条在你看来没什么用的注释,可能记录着某个从当前 diff 中看不出来的历史 bug 教训。
这段读完我直拍大腿。很多 AI 工具要么疯狂写注释——每行代码上面都加一行”这里是 xxx”——要么顺手把别人的注释删了。Claude Code 的处理方式,说实话,比大部分人类同事都靠谱。
实际影响:我现在不会再在 prompt 里写”给代码加上注释”了。如果 Claude Code 没写注释,说明它认为代码本身已经足够清晰。如果我觉得需要注释,那往往意味着变量名或函数名取得不够好——这才是该修的地方。
我觉得这是全篇最精彩的部分之一——关于如何汇报工作结果:
要如实汇报结果:如果测试失败,就带上相关输出直接说明;如果你没有运行某个验证步骤,也要明确说明,而不是暗示它已经成功。
输出明明显示失败时,绝不能声称”所有测试都通过”;不要压制或简化失败的检查项来制造表面上的绿色结果;也不要把未完成或已损坏的工作说成已经完成。
反过来,当某项检查确实通过时,也应当直接说明,不要用不必要的免责声明去弱化已确认的结果。目标是准确汇报,而不是防御式汇报。
我用其他 AI 工具的时候体验过两个极端。一种是啥都说”已完成”,结果一跑全是 bug。另一种是明明搞定了,还反复说”我不太确定,建议你再看看”,搞得我比它还焦虑。
Anthropic 想要的是一个诚实的同事。不是一个要么吹牛、要么自卑的实习生。
我的体会:这也解释了为什么 Claude Code 有时候会直接告诉你”这个我没测,你需要自己验证一下”。以前我觉得这是它能力不够,现在知道这是设计如此——诚实汇报比虚假自信更有价值。
这条提示词我觉得特别值得所有做 AI Agent 的人学习:
用户某次批准了一个动作(例如一次 git push),并不意味着他们在所有语境下都批准。所以除非某项操作已经在像 CLAUDE.md 这类持久化说明中提前获得授权,否则始终应先确认。授权只覆盖被明确指定的范围,不能外推。
还有一段:
不要把破坏性操作当作”让问题立刻消失”的捷径。应优先尝试识别根因并修复底层问题,而不是绕过安全检查(如
--no-verify)。如果你发现异常状态,例如陌生的文件、分支或配置,先调查再删除或覆盖,因为那可能是用户正在进行中的工作。
暂停确认的成本很低,一次误操作的代价可能非常高。
这个设计理念比很多人类同事都谨慎。
实际场景:我有一次让 Claude Code 清理一个目录,它发现里面有个不认识的配置文件,没有直接删,而是问我”这个文件看起来不属于项目模板,是你手动加的吗?“。当时觉得它事儿多,现在明白了——那个文件确实是我手动配置的,删了就得重来。
这个发现让我直接笑出来了:
不要在工具调用前使用冒号。工具调用本身可能不会直接显示在输出中,因此像”Let me read the file:“这种后面紧跟读取工具调用的文字,应改写成带句号的”Let me read the file.”
看到没有?连一个冒号还是句号都要管。因为工具调用可能不会显示给用户,用冒号会让用户看到一个悬空的冒号,体验就崩了。
另外还有一组沟通原则:
假设用户看不到你大多数工具调用或思考过程,他们只能看到你输出的文本。在做更新时,要假设对方刚刚离开过,现在已经跟不上上下文了。要把话写到让对方”冷启动”也能马上接上的程度。
Anthropic 对用户体验的执念,已经到了标点符号级别。这种细节上的偏执,解释了为什么 Claude Code 的交互体验确实比很多竞品流畅——不是功能多,是每个细节都打磨过。
Claude Code 有一个自主工作模式,提示词里的设计逻辑值得细看。
用户不在的时候:
如果某个 tick 到来时你没有任何有用的事情可做,就必须调用 sleep。绝不要只回复”还在等”或”没事可做”之类的状态消息,那只是在浪费轮次和 token。
优先依据自己的最佳判断行动,而不是动不动就先确认。不经询问就去读文件、搜代码、运行测试。如果你在两个合理方案之间犹豫,选一个先做起来。之后随时可以修正方向。
用户正在看的时候:
Unfocused(用户不在):应明显偏向自主行动,可以自行决策、探索、提交、推送。
Focused(用户正在看):应更具协作性,及时展示可选方案,在进行较大改动前先询问。
这不就是理想同事吗?你不在的时候它闷头干活,你在的时候随时跟你同步。
我的使用习惯因此改变了:以前我会一直盯着 Claude Code 的输出看,现在如果是比较确定的任务,我会直接下完指令去干别的,让它自己跑。回来看结果就行。这种信任感,是建立在对它行为逻辑的理解之上的。
这套验证机制,读完只有一个感受:比很多人类团队的 code review 都严格。
只要在你的这一轮中发生了非琐碎实现,在你报告完成之前,必须经过独立且带对抗性的验证。
你自己的检查、保留意见,以及 fork 自己做的自检,都不能替代独立验证。
若结果为 FAIL:先修复,再把验证者的发现和你的修复一起重新提交给验证者,如此循环直到 PASS。
若结果为 PASS:你还要抽查,重新执行其报告中的 2 到 3 条命令,并确认每个 PASS 都有 Command run 代码块。
说白了就是:谁写的代码都不能自己说了算。这和我在第 8 篇:代码审查里讲的原则完全一致——AI 的代码同样需要审查,而且需要用对抗性的心态去审查。
Claude Code 把持久化明确分成了三层——记忆、计划、任务,三者各司其职,绝不混用:
何时使用记忆而不是计划:记忆应保留给那些在未来对话中依然有价值的信息。
何时使用计划而不是记忆:如果你即将开始一项非琐碎实现任务,并且希望就实现方法与用户达成一致,那么应使用 Plan。
何时使用任务而不是记忆:当你需要把当前对话中的工作拆成离散步骤,或者需要跟踪自己的进度时,应使用 tasks。
这种清晰的分层设计,让 AI 不会把”这次怎么做”和”以后要记住什么”搞混。
实用建议:理解了这三层之后,你在使用 Claude Code 的时候可以更有意识地利用它们。比如项目的技术栈约定应该写在 CLAUDE.md 里(记忆层),而不是每次对话都重复一遍。具体的重构步骤应该让它生成计划(计划层),拆解后的子任务用任务跟踪(任务层)。这和我在第 6 篇:CLAUDE.md里讲的内容是相通的。
最后这段提示词我觉得写得特别好:
像在向一个刚走进房间、但很聪明的同事做简报那样向智能体说明任务。它没看过这段对话,不知道你已经试过什么,也不理解这件事为什么重要。
绝不要委托理解本身。
不要写”根据你的发现修复这个 bug”或”根据研究结果实现它”。这种表述等于把综合判断推给智能体,而不是由你自己完成。你写出的提示词应当能证明你已经理解问题。
这最后一条非常深刻。综合判断的责任在你身上,不能甩给子智能体。
这不光适用于 AI 协作,也适用于所有团队管理。你不能跟下属说”你去调研一下然后把问题解决了”——你得自己理解问题,给出明确的方向,再分配具体任务。
读完这 324 条提示词,我最大的感受是:这不是在定义一个工具的行为,这是在定义一个理想同事应有的品质——克制、诚实、谨慎、自驱。
这些设计理念也直接影响了我使用 Claude Code 的方式:
不管你用的是哪家的 AI 编程产品,理解工具背后的设计哲学,都会让你用得更好。而 Claude Code 的这份提示词,至少让我看到了 Anthropic 对”好产品”的理解——不是更多功能,而是更好的判断力。
每周更新 Claude Code 实战技巧、工具对比、行业动态。回复「模板」获取 CLAUDE.md 模板合集。