精准化测试和 LLM 结合有搞头吗 调用链和用例知识库的维护成本是不是更低一点, 有没有新方向?
AI 生成用例最大的问题是准确性, 要么逐步拆解人工微调得出用例,要么上 RAG 训练自己专有大模型? 大家各公司内部的落地效果怎么样?
直接生成用例不太科学,需求到用例中间有好多层呢,至少得拆分下吧。
大家各自公司内部,测试在 AI 方面的投入方向和现阶段的产出是怎么样的?