最近各公司都在搞 ai 提效,大家热议的话题也是 ai 提效,自己也一直关注着 ai 这块的动态,虽然了解的不多,但是一直持续关注着吧
去年和一位前领导及前辈聊天他点了我一下要关注这个方向,事后开始关注这块的动态,当时大家提效的场景议题还不多 ---- 需求转用例、代码提交的检查、还有个自动转自接口自动化的,但是最实用的还是需求转用例,只听说一些大厂可能自己训练模型搞,中厂调 openapi 搞,小厂自己乱搞;我自己就是小厂,自己在本地弄了个 小 demo 下载了几个模型试了下需求转用例,效果还行,然后试了调 openapi,确实不错
后面有个大佬@Tttt用 ai 写了原型图自动转 ui 用例再执行出报告的
再到去年年末,看了高飞老师的 cursor 使用视频,然后自己也搞了个 cursor 白嫖了几天
我发现身边有些朋友都在用 ai,那么,测试为什么要用 ai,意义在哪里,提效么,那主要是提了哪里的效,测试执行效率,回归测试效率?
比如现在的 ai 测试平台,假设它适用于复杂系统,并且在转需求,用例这些环节加了人审,用例执行完真的敢上线吗
或者说需求转用例,一方面需要人审介入,另一方面也丢弃了自己逐句理解分析需求的过程,对需求和用例的理解势必比之前略浅,再者就是可能需求或者用例本身看上去没有问题,但是会漏掉很多场景,当然,我们肯定可以在后面执行过程中中慢慢总结完善
回到问题本身,跟提效无关且有关吧,应该是适应介入 ai 后的节奏吧,现在我们公司产品用 ai 写需求出原型图,ui 也会借助 ai,开发用 ai 写代码,以后的趋势就是,敏捷节奏会非常快,特别是小厂,本身项目过程就不标准,如果测试还用传统的自动化和手工去覆盖,应该是搞不过来的;另一个点高飞老师的视频有提到过,开发用 ai 写代码后,新产品还好,如果是迭代需求,很可能开发自己也不知道是否会有回退问题,可能有的开发很负责每次都会检查 ai 改了哪些代码,但是如果系统足够大,改动足够多的时候呢,那就只能加一项咯 ------ 测试用 ai 进行常规的手工测试
第一次发文,有点混乱,不好意思