测试流程梳理

从基础的的测试流程出发,测试的整个生命周期如下:
测试计划-->测试设计-->测试开发-->用例管理-->测试执行-->测试总结

测试计划

当前关于 AI 如何辅助测试计划,如测试策略和测试方案制定,目前讨论的比较少,主观认为是测试计划需要站在全局的角度去考虑,涉及面复杂,很难通过 aigc 等方式生成符合要求的测试计划。

测试设计

主要包括需求分析、评审、用例设计与评审等,这部分目前出现较多的是通过 aigc 的方式辅助进行需求分析和文本用例的生成,常用的一种策略是通过将需求文本向量化,结合业务知识库和大模型的推理能力推理出需求分析结果和文本测试用例。
思考点:实际使用的点一个很常见的问题是需求分析以及文本用例生成的结果多大程度上能满足实际需求,比如可用的占比能达到多少,去校验那些能用,已经修正其实会占据比较多的时间,个人觉得作为一个查漏补缺去用还行。

测试开发

->自动化脚本:
主要包括接口、ui 测试、性能测试等如脚本开发的工作,比较常见的就是自动化脚本生成,目前不依赖于模版和回流方式完全依靠文本需求直接到脚本代码生成的效果是比较差的,个人觉得将需求文本到脚本代码生成的端到端进行拆分比较合适,比如需求文本生成文本用例,再基于文本用例的逻辑抽取,并与对用的接口,ui 元素进行绑定后进行生成,但是这种方式可能会出现前置的文本用例生成错误传递到后面脚本生成过程中。
->自动化脚本评审:
对于脚本评审而言,其实不依赖于大模型的能力已经有了一些辅助提效的方法,比如自动检测校验是否缺少以及合理性等,还没尝试过直接把代码喂给 agent 是否能给出客观的评审结果。

用例管理、测试执行

个人觉得这部分可能比较可能用到大模型的是,用例的模型抽取、调度、精准测试等。

测试总结

大模型能力是否能提供更深更多维的分析结果。

ps:对于性能测试来说,里面可以挖的东西可能更多~


↙↙↙阅读原文可查看相关链接,并与作者交流