用 Claude Code 写了一个月代码的数据复盘

实战篇 · 第 4 篇 20 分钟 需编程基础

为什么要做数据复盘

用 Claude Code 一个月之后,我发现自己说不清楚几个关键问题:

  • 它到底帮我省了多少时间?还是有些场景反而浪费了时间?
  • 哪类任务用它效率最高?哪类最容易翻车?
  • 我的使用习惯有没有变化?是越用越顺还是一直在踩同样的坑?

光靠感觉判断不靠谱。所以我从第二个月开始,每天记录使用情况。下面是 30 天的数据汇总。

基本数据

指标数据
总对话次数247 次
日均对话8.2 次
单次对话平均轮次4.3 轮
单次对话平均时间6.5 分钟
一次成功率(不需要修正)52%
需要 1 次修正31%
需要 2 次以上修正12%
放弃/自己重写5%

几个关键数字解读:

一次成功率 52% 意味着每两次对话就有一次需要你介入修正。这不是说 Claude Code 不好用,而是说你不能无脑接受它的输出。审查和修正是工作流的必要环节,不是意外。

放弃率 5% 说明真正完全做不了的任务很少。大多数情况下通过 1-2 轮修正就能拿到可用的结果。

按任务类型分类

我把所有对话按任务类型分了 7 类:

任务类型次数占比一次成功率平均修正轮次
新功能开发6727%42%1.8
Bug 修复4317%58%1.2
重构/提取3113%45%1.6
测试编写3815%63%0.9
代码分析/解读2811%79%0.3
CSS/样式2410%33%2.4
配置/DevOps167%56%1.1

效率最高:代码分析(79% 一次成功率)

“帮我解读这段代码在做什么”、“分析这个模块的依赖关系”、“解释这个正则表达式”——这类只需要读不需要写的任务,Claude Code 的表现最稳定。原因很简单:分析类任务的正确性容易验证,而且不涉及主观判断。

效率最低:CSS/样式(33% 一次成功率)

这个在第一篇实战里已经讲过了。CSS 的核心矛盾是:你想要的效果在你脑子里,但很难用文字精确描述。 Claude Code 写的 CSS 语法上从来没有问题,但视觉效果经常不是你想要的。

后来我总结的经验是:CSS 微调的时候,直接在浏览器 DevTools 里调好数值,然后告诉 Claude Code 具体改什么属性改成多少。不要让它猜视觉效果。

最值得投入:测试编写(63% 一次成功率)

测试是我觉得 Claude Code 性价比最高的使用场景。原因有三个:

  1. 测试的模式相对固定(arrange-act-assert),Claude Code 很擅长
  2. 测试的正确性可以立即验证(跑一下就知道对不对)
  3. 写测试是大多数开发者最不愿意做的事,AI 代劳省下的是”心理摩擦”

但有一个重要的前提:你必须在 prompt 里列出要覆盖的测试场景。 如果只说”给这个函数写测试”,Claude Code 通常只覆盖 happy path。

时间投入分析

这是我最关心的数据。Claude Code 到底帮我省了时间还是浪费了时间?

我的估算方法是:对每次对话,粗略估计”如果不用 Claude Code,自己做这个任务大概要多久”,然后和实际用 Claude Code 的时间(含审查和修正)做对比。

任务类型不用 AI 预估时间用 AI 实际时间效率比
新功能开发平均 35 分钟平均 22 分钟快 37%
Bug 修复平均 40 分钟平均 28 分钟快 30%
重构/提取平均 50 分钟平均 30 分钟快 40%
测试编写平均 25 分钟平均 10 分钟快 60%
代码分析平均 20 分钟平均 5 分钟快 75%
CSS/样式平均 15 分钟平均 18 分钟慢 20%
配置/DevOps平均 20 分钟平均 12 分钟快 40%

CSS 是唯一一个用 AI 反而变慢的场景。 原因是来回描述效果、审查、再调整的时间,超过了自己直接写 CSS 的时间。对于简单的布局和动画,自己写其实更快。

测试和代码分析是效率增益最大的场景。 测试快了 60%,代码分析快了 75%。这两类任务的共同特点是:模式化程度高,正确性容易验证。

综合来看,加上所有的审查和修正时间,整体效率大约提升了 35-40%。 这个数字没有某些文章吹的”10 倍效率”那么夸张,但确实是显著的提升。

使用习惯的变化

对比第一周和第四周的数据,能看到一些有意思的变化:

单次对话轮次下降了:从平均 5.8 轮降到 3.4 轮。说明我的 prompt 越写越精确,需要来回修正的次数在减少。

一次成功率上升了:从 41% 提升到 58%。主要提升来自两方面:一是 prompt 写得更具体了,二是学会了提前预判 Claude Code 可能犯的错误,在 prompt 里加上约束。

CSS 类对话减少了:从第一周的 18% 降到第四周的 4%。不是因为不需要写 CSS 了,而是我学会了自己先调好再让 AI 改文件。

代码分析类对话增加了:从 6% 增加到 15%。我越来越多地把 Claude Code 当作”代码搜索引擎”来用——“这个项目里哪里用到了 XX 函数”、“帮我找到所有处理用户权限的代码”。这种用法几乎不出错,而且比手动搜索快得多。

五条经验总结

  1. 不要用 Claude Code 做 CSS 微调。 自己在 DevTools 里调好数值,然后让它改文件。描述视觉效果的成本太高了。

  2. 测试和代码分析是性价比最高的场景。 如果你还没开始用 AI 写测试,强烈建议从这里开始。

  3. 一次成功率只有 50%,这是正常的。 不要因为需要修正就觉得 AI 不好用。审查和修正是流程的一部分,不是意外。

  4. Prompt 越精确,修正轮次越少。 一个月下来最大的提升不是学了什么新技巧,而是学会了怎么把需求表达得不留歧义。

  5. 综合效率提升约 35-40%。 不是 10 倍,但足够显著。而且随着使用经验积累,这个比例还在缓慢提升。

觉得有用?关注公众号获取更多

每周更新 Claude Code 实战技巧、工具对比、行业动态。回复「模板」获取 CLAUDE.md 模板合集。

微信扫码关注 CC精通之路