AI测试 AI 驱动的 UI 自动化测试:国产龙虾 workbuddy 网页识别效果不理想,大神们有啥好的方法吗?

子夜 · 2026年04月29日 · 最后由 孙高飞 回复于 2026年04月29日 · 716 次阅读

各位大神,
目前我在使用国产龙虾 workbuddy 做我们系统的 UI 自动化测试,但目前效果不理想,对网页的识别不是很好。
提示词:
你是一位资深测试工程师,根据此上传需求文档(文档中对字段值要求的详细描述),运用各种测试方法,生成针对页面字段测试的测试用例,根据生成的测试用例对 XX 流程发起页面所有的字段进行测试,重要步骤和缺陷都需要截图,请按以下操作步骤进入流程发起页面 1、浏览器访问http://11.9.67.99:8888/XXX 2、输入用户名:张三, 密码:123456, 点击登录,登录成功 2、左侧导航栏,点击【办公】,在办公页面的搜索框中输入流程名称,在搜索结果列表中选择流程,打开流程发起列表页面 3、页面右上角,点击【新建】按钮,浏览器打开新页签,此页签为流程的发起页面,以上所有测试执行完成后,生成一份详细的测试报告

发现的问题:我发现通过上面的提示词执行完后,测试报告是生成了,报告中生成的字段的用例都是通过的状态,我实际去看这是一个伪报告,AI 没有去真正识别页面的元素,导致 AI 没有测试执行就生成报告了。

各位大神,想确认两个问题:
1、大家在做 UI 自动化测试的时候,对于 AI 对网页识别效果不好,有什么心得体会,都会用什么 skill 提升识别的准确度
2、对于这种自动化的全流程测试,需求分析 - 测试用例自动生成 - 用例自动执行 - 生成测试报告,有什么成功的经验分享吗?

非常感谢,各位大神。

共收到 4 条回复 时间 点赞

我没用 workbuddy, 我是用的 midsence, 基于多模态大模型的 UI 自动化识别方案。 底层用的 playwright,而 playwright 用 CDP 跟浏览器交互,目前用下来,稳定性还挺不错的。 多模态大模型通过截图来找到控件的坐标, 然后通过控件坐标,与 playwright 交互找到真正的控件对象。 然后通过 palywright 调用 cdp 操作浏览器。

整套东西用下来, AI 定位控件的正确率还是很高的,我用的是千问的多模态模型。 而 midsence 仍然是用 playwright 的,所以即便 AI 定位失败了, 我们还可以回退到传统的 css 定位。

孙高飞 回复

用这个是不是得需要写脚本吧?类似于这样:
import { Midscene } from '@midscene/web';

async function test() {
const agent = await Midscene.create();
await agent.goto('https://example.com');
await agent.exec('点击登录按钮');
await agent.exec('输入账号: test@xxx.com');
await agent.exec('断言页面包含 "欢迎回来"');
}
其实我是想实现一个全流程的从需求分析 - 生成用例 - 执行用例 - 生成报告,只写提示词,他就能执行自动运转那种模式。有啥建议没?

仅楼主可见
子夜 回复

是需要写脚本, 只不过我都是让 AI 写:

需要 登录 后方可回复, 如果你还没有账号请点击这里 注册