问题不在于 AI 会不会写代码
讨论 AI 辅助研发时,很多争论停留在“AI 能不能替代程序员”。这个问题太粗了,也不太贴近真实研发现场。大多数复杂研发任务并不是从空白文件开始写代码,而是从读需求、读历史实现、理解约束、拆分风险、形成方案开始。AI 的价值,首先体现在这些高频但成本很高的环节。
我更关心的是:AI 能否把一次研发任务中的信息处理成本降下来,让工程师把更多精力放在判断、取舍和验证上。
AI 适合嵌入作业流,而不是孤立使用
一个可落地的 AI 辅助研发作业流,通常包括四个阶段:
- 代码阅读:让 AI 帮助梳理模块边界、调用链和关键状态。
- 方案草拟:基于约束生成多个实现路径,再由人判断风险。
- 问题定位:围绕日志、测试失败和历史变更缩小搜索范围。
- 文档沉淀:把一次解决过程转成可复用的案例和 Prompt。
这不是把决策交给 AI,而是把重复的信息组织工作交给 AI。工程师仍然要负责判断:这个方案是否符合架构边界,是否会破坏兼容性,是否有测试可以证明。
const reviewChecklist = [
"需求是否被正确理解",
"边界条件是否覆盖",
"测试是否能证明行为",
"文档是否留下判断依据"
];研发效率来自可复用资产
如果每个人都只是在对话框里临时提问,AI 使用很快会变成个人技巧,难以形成团队收益。更好的做法是沉淀典型场景:如何读一个陌生模块、如何定位性能退化、如何写设计评审材料、如何把会议结论变成任务拆解。
| 场景 | AI 加速点 | 人的判断 |
|---|---|---|
| 代码阅读 | 调用链、模块摘要 | 边界是否准确 |
| 方案设计 | 备选路径、风险清单 | 取舍和优先级 |
| Bug 定位 | 日志归纳、搜索方向 | 根因验证 |
| 文档总结 | 结构化表达 | 事实和结论 |
不迷信生成结果
AI 最危险的地方,是它能把不确定内容说得很流畅。团队使用 AI 时,需要建立默认验证意识:重要结论要回到源码、测试、数据和可观测结果中确认。
人负责判断,AI 负责加速。这个边界守住了,AI 才能成为研发体系的一部分,而不是新的不确定性来源。