AI测试 对 AI 测试的一个想法

阿三 · 2025年10月29日 · 最后由 feige 回复于 2025年11月03日 · 5705 次阅读

突然有个想法:禅道提 bug 完成,旁边有个 AI 修复按钮,测试人员/开发人员,判断是否需要 AI 修复,AI 自动根据你提的 bug 详情,进行项目源码修复,测试运行调试,更新到测试环境,禅道自动指派回测试人员,备注(修改源码详情,AI 生成测试用例)并通知测试人员。然后测试人员进行校验(参考 AI 测试用例)

可能需要的前提:
1.bug 描述要准确
2.简单 bug, 人为判断是否需要 AI 修复
3.开发可审核,看到修复具体 bug 和源码修改详情,可追溯。
......

单纯的一个想法!!

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!
共收到 17 条回复 时间 点赞

不现实

描述如何与代码模块对应上?

上个月基于代码/监控做的 AI 分析可以精确到行,以及提交人等 SCM 信息。后续对话解决方案/创建任务/创建 MR/ 也仅仅是几个 Tool

😁 感觉你应该刚接触工作不久

1.根据问题单编号,自动获取问题单信息,AI 分析之后生成修改意见和代码,目前已经可以实现。
2.代码提交、合并这块还是要谨慎的,当前 AI 介入不现实。
3.自动化构建打包、自动化部署、自动化测试这套流水线还是比较成熟的,暂时无需 AI 介入。

感觉可以直接产品经理对接 AI,跳过开发、测试,单纯的一个想法!

跟业务强相关的代码逻辑,AI 没有判断标准;不跟业务强相关的代码,用 AI 做辅助 CR

鲨鱼辣椒 回复

现在的 AI 让写简单的代码确实可以,如果是业务非常复杂的就不行了

阿三 #11 · 2025年10月30日 Author
JamesChung 回复

是的,所以我写的前提,是简单 bug😂

基于业务开发的逻辑,很难脱离业务去修改优化的

很理想的一个功能,对测试的要求比较高
bug 需要写明:

  1. 提交 bug 需要指明后端/前端项目名称和分支名称。(用户定位项目和开发分支)
  2. 将 error 日志提交到 bug 中(用于定位类和代码行)
  3. 需要明确写出期望逻辑/样式(用作 ai 修改代码的实现,不然 ai 容易瞎改)

痛点:

  1. AI 如何分项目/分支拉取代码? 目前知道 cursor 可以打开项目,拉取分支后通过对话让其修改 bug。
  2. 拉代码、修改、提交代码、发布整套流程走 ai,怎么保持稳定,存在一步有问题就全局失败。
Ayo 回复

大佬啥时候出一期这个

AI 自动修复缺陷,这个在大模型时代之前已经很多地方都有探索了,不过没有什么拿得出手的实践。大模型时代应该能做得更好。

AI 自动验证 bug,最近开始陆陆续续听到有业务团队在探索,主要是又大模型之后,面向自然语言的图文理解简单很多,比如移动端只要解决 “点击驱动” 问题,就能开始尝试搞这类课题。

剩余的什么更新测试环境、通知,这些用不上 AI,基础的工程开发就能解决。

AI 调试也是一个新课题,不过目前没关注到身边有人在搞,部分场景下和 AI 自动验证 bug 有一定重叠。

ZYH 回复

其实就是一个 ReAct Agent 自主规划你给他的一些 Tool , 例如读写文件/执行命令啥的, 最后通过 Tool 或者 Prompt 约定输出就好啦。

我选择提高我的手速😂

需要 登录 后方可回复, 如果你还没有账号请点击这里 注册