敏捷实践 【求助】关于 AI 驱动快速需求无人值守上线的测试方案探讨

天亦鸿 · 2026年03月13日 · 最后由 zyanycall 回复于 2026年04月02日 · 5663 次阅读

最近公司在推进一个借助 AI 实现快速需求无人值守上线的项目,希望听听大家的想法或已有的落地经验。

背景

快速需求:纯前端或纯后端的改动,需求较小,比如导出功能新增字段、按钮文案修改等。

无人值守上线:产品在禅道建立需求后,开发评估为快速需求,则通过 AI 自动编写代码并提测;提测后测试侧也借助 AI 完成测试,通过后自动提交上线通知。

测试侧需要负责的内容

目前我们设想的测试流程主要分为三块:

数据侧:AI 根据需求自动生成测试用例、测试脚本。

执行侧:AI 自动执行测试脚本,并输出测试报告(包含通过率、失败用例数及对应的失败用例详情)。

策略侧:针对失败用例设计重试机制(比如失败后自动重试、智能分析失败原因等)。

我们的困惑

虽然框架看起来清晰,但真正落地时仍有很多细节需要推敲,例如:

问题 1. 目前遇到的最大困惑

框架看似清晰,但落到具体操作时,有一个核心环节卡住了:开发提测后,测试拿到了提测分支,如何将 “提测分支” 这个信号准确传递给 AI,并驱动后续的测试流程?

举个具体的例子来帮助理解:

假设现在有一个纯前端的快速需求——导出功能新增一个字段。产品在禅道创建需求后,开发完成了代码编写,提测分支为 feature/quick/export_add_age。按照设想,测试侧应该基于这个分支进行 AI 驱动的测试。

理想情况下,AI 可以通过需求 ID 从禅道拉取 PRD(Markdown 格式),然后自动生成测试用例和测试脚本。

接着,AI 需要调用类似 cursor 这样的工具,并借助集成的 playwright_mcp 来执行自动化测试。

但问题在于:无人值守意味着整个流程不能有人工介入。在实际环境中,我们无法手动打开 cursor 并输入指令 “请帮我执行这个测试脚本”。那么,在没有任何人工对话的情况下,如何自动触发 cursor 或类似的工具来执行测试呢?

问题 2. 测试脚本的生成如何适配不同的前端框架或后端接口?

问题 3. 执行侧如何保证测试环境隔离、数据准备自动化?

希望大家不吝赐教,无论是完整的方案思路,还是某一个小环节的实践,都欢迎分享!如果有已经在公司内部落地的案例,也希望能听到踩坑经验和优化建议。

提前感谢大家的回复!

最佳回复

1、你这个本质是怎么触发的问题。可以弄个提测单之类的东西,让开发提测时提交,里面把所有需要的信息带上就好了。如果禅道里本身有配置状态这类信息的话,也可以通过推进到测试状态来触发,然后推进的时候要求填提测分支。至于说要打开 cursor 输入指令这个,你可以看看一些 CLI 命令行工具,比如 claude cli,这样你通过代码就可以调用,或者弄个 skill 给 AI 自己去调用。

2、这个找到合适的 skill 来做。后端接口其实 AI 能读到源码基本就可以生成,前端的话可以试试基于 PRD 或者设计稿来生成(前端的没试过,纯思路)

3、测试环境隔离这个听着是基建要做的,和 AI 没啥关系吧?一般会通过泳道标识 + 流量隔离来做。数据准备自动化,这个要看具体场景了,不过如果不复杂,可以直接在你的测试用例里把这些步骤带上,就不用特别处理了。

共收到 11 条回复 时间 点赞

1、你这个本质是怎么触发的问题。可以弄个提测单之类的东西,让开发提测时提交,里面把所有需要的信息带上就好了。如果禅道里本身有配置状态这类信息的话,也可以通过推进到测试状态来触发,然后推进的时候要求填提测分支。至于说要打开 cursor 输入指令这个,你可以看看一些 CLI 命令行工具,比如 claude cli,这样你通过代码就可以调用,或者弄个 skill 给 AI 自己去调用。

2、这个找到合适的 skill 来做。后端接口其实 AI 能读到源码基本就可以生成,前端的话可以试试基于 PRD 或者设计稿来生成(前端的没试过,纯思路)

3、测试环境隔离这个听着是基建要做的,和 AI 没啥关系吧?一般会通过泳道标识 + 流量隔离来做。数据准备自动化,这个要看具体场景了,不过如果不复杂,可以直接在你的测试用例里把这些步骤带上,就不用特别处理了。

很有意思的方案,review 环节也审了,万一导致线上问题了,谁背锅呢

你们 cursor+playwright 已经可以顺畅执行了?

不怕出问题吗?

一代人 回复

快速需求的优先级较低,这类需求不影响核心业务,也不会涉及金额。目前大佬也没有针对此类需求明确划分责任归属,属于试行推进,真有线上问题了,再慢慢优化流程。

陈恒捷 回复

请问大佬,你们公司或行业内,是否有关于以下流程落地的成熟方案:从需求移交,到 AI 编写代码、验证,再到最终提交上线?😃

落地了上线成功率 100%,还需要测试吗?

测试太难了哈哈哈,不过测试可以去测复杂性更高的需求😂

天亦鸿 回复

无人的我们现在还在尝试。成熟的还是 AI 辅助研发写代码、AI 辅助测试写用例和执行用例。

一代人 回复

背锅确实是 ai 无法替代的一环

以导出功能新增一个字段为例,头条这边 QA 介入的方式如下吧:

  1. QA 参加需求评审和技术评审,评估影响面。
  2. QA 对自动生成的 Case 做检查,看 Case 是不是都包含了,尤其是边界场景。
  3. 研发自测,流水线上会执行 QA 之前写好的底线 Case。(你这里问的其实是此需求涉及的可能是 P2 级别的非核心 Case 自动化要怎么改怎么执行,如果你们 P0 的场景都自动化覆盖完了,那么写 P2 的没关系,如果 P0 的都没写完,这部分 Case 就是没有),研发来保证质量。
  4. 验收阶段,PM 和 QA 、RD/FE 一起在测试环境演示一遍,什么问题当场就演示就问,确认效果。
  5. 上线后的线上回归,也是 RD/FE 来执行。

你问的这个其实是个大问题,如果你这套跑通了,实际上你的工作就没了。
那么你问的问题能不能实现呢?如果是新增导出功能这个例子,我觉得是可以实现的,AI 来生成这些自动化代码,很快。

需要 登录 后方可回复, 如果你还没有账号请点击这里 注册