最近问界这个车不是比较火嘛,周末的时候去体验了一下,给我印象很深的是这个车的车机
当时销售跟我说的是,这个车机界面上,所有你能看到的功能,都可以通过语音控制
举个例子:比如有个菜单,你可以说打开 xx 菜单,页面下滑,点击 XX,关掉 XX,把 xx 调整到 90%
这个操作给我了一点测试技术上的启发

假如,有一个大模型,可以做到能识别页面中的按钮,同样能识别我描述的操作并调用对应函数
比如封装好了,下滑,点击,输入等通用函数
那么我以后测试,是不是可以只专注于用例设计就可以了呢,设计出来的用例交给大模型去执行?
比如,用例步骤是:
1、打开 XXX 页面
2、点击 XXX 菜单
3、点击 XXX 按钮,A 框输入 xxxxx,B 框输入 xxxxx,C 框选择 xxxx
4、点击提交
5、查看 xxx 列表,第一条信息 A 内容 xxxxx,B 内容 xxxxx,C 内容 xxxxx
完全就交给大模型去执行

什么时候能整个这样的东西出来呢?


↙↙↙阅读原文可查看相关链接,并与作者交流