我这边也再试用 AI 生成测试用例,目的是用 AI 生成测试用例,最好是能直接用。
刚开始考虑的是直接试用 PRD 来直接生成用例,但是,这边的 PRD 写的比较渣,很粗,遂放弃。
后来是使用整理测试点,用测试点来生成用例的方式,然后发现个问题,不同的对话框,同样的描述语句生成的用例不一样,而且区别还比较大,像是不同风格的人写的,整理起来很费时间。
最后是新增了一个步骤:将写好的用例再投给 AI,让 AI 再次整一下,整个流程就变成了:整理测试点-->AI 生成用例-->手动整理-->AI 修改、补充-->手动整理。这个流程就比较消耗时间,而且在【AI 修改补充】阶段修改后的用例也是不能直接用的,还是需要再整理。
整体使用下来感觉 AI 只能补充下测试点、提供下测试思路,用例还是需要自己来写才行。而且只能用在简单、单一的功能上,如果业务比较复杂的话就不行了。
这个很费 token。。搭建 + 跑场景,一天用了一百万的 token
可以输出 csv 格式的用例,格式上能直接用
excel、yaml 比较适合单接口的测试,流程测试还是需要写代码
生成的用例效果怎么样?能用吗?
同感,现在的 AI 感觉更像一个便捷的搜索工具
没有谁是不可替代的
可以要求的吧,QA 分支的代码一般没啥问题
业务迭代很快的情况下,推自动化估计会有难度,逻辑经常变更的话维护自动化脚本都够累的。可以先推下比较稳定流程的自动化,其他的可以先整理下回归用例集合
膜拜大佬