不是,因为现在 AI 编程太强大了 代码能力包括架构设计能力 AI >> 普通程序员 >> 测试。程序员现在都在全力拥抱 AI。测试再去学具体的代码和框架有啥用呢 我之前做了尝试,做一个面向无代码能力的 excel 驱动的 靠规则约束的 支持单接口和串联的传统接口测试框架 一个不太熟练的测开,估摸着得调个三四天。跟 cursor 聊,一个下午。这就是差距。所以我理解现阶段最应该提升的测试设计能力,包括测试方案,测试拆解,质量标准。再有就是如何让 AI 充分理解你的诉求,帮着干活。换句话就是,具体的实施人员,也要学着当对应口儿的架构师。让 AI 来实际去做具体的事情。而不只是拿来做军师这个角色。当然一切都是个人感觉哈。
这个节骨眼研究测试框架和代码 有点 49 年入国军的意思
点点点应该是最不会被替代的,总需要有纯人工验证 AI 是否靠谱
我有种看法,对于测试用例来说,生成不完全,等于完全没生成。因为这里面涉及到相当多的人工纠偏和补充工作。作为终端测试,我可能需要再把 ai 生成的用例审查一遍,修正,补充。并且明确它目前生成的边界是啥,并且把边界外的用例补充完全。并且,对于拆解测试点的这个动作,给人看和给机器看,详略程度是完全不一样的。人能理解的内容给机器理解需要大量的前置。这个成本是不是也要算进去。再有就是用例的维护,如果是迭代功能,那么是否需要将功能对应的旧用例一并输入给 AI 让它去完善呢,用例本身的版本管理,还有最终大版本的全面性和实时性也存疑