大家好,最近在做一个开源的 AI 测试平台,核心功能是AI 生成测试用例和UI 自动化执行。
目前已经在实际项目中使用,效果还不错,分享给大家,欢迎试用和反馈。
项目已开源,欢迎大家试用、反馈和 Star!
从原型工具导出的 HTML 格式文件通过系统自动生成测试用例,10 分钟完成 100 个用例。
与市面上工具的差异:
目前市面上的 Dify、Coze 等工具,都是通过固定 Prompt 直接生成用例,存在以下问题:
我的解决方案:
采用分阶段、结构化的生成流程,每个阶段都有明确的产物和人工审核点:
采用**分阶段、结构化**的生成流程,每个阶段都有明确的产物和人工审核点:
上传 Axure 原型
↓
AI 生成文字需求文档(可人工审核)
↓
AI 预留测试模块(自动拆分)
↓
AI 生成每个模块的测试目的
↓
AI 根据每个测试目的生成具体测试用例(结合 RAG 向量数据库增强)
关键点:
下面是实操:
先上传原型工具导出的 HTML 文件

然后根据 AI 解析的文字版需求进行审核与修改,确认完毕点击下一步

AI 会根据文字版需求文档 生成当前页面不同的测试模块,选择其中一个点击下一步

根据选择的测试模块生成不同的测试目的

最后根据生成的测试目的,选择批量或者单个生成测试用例(生成测试用例会结合向量数据库数据作为参考)

最后,通过复选框选择生成好的测试目的,将测试用例批量保存到列表

AI 通过自然语言执行测试用例这个就比较简单了,跟大家方法一样也是通过大模型 +Playwright mcp
为了解决每次执行只能在服务器端打开浏览器 用户没办法看到画面问题,通过 WebSocket+Playwright 截图 做了个实时画面
直接上实操图
测试用例是一步只写一个操作

用例页面直接点击运行按钮

自动跳转到测试执行页面,点击日志按钮

就能看到浏览器实时画面

其他的的