问答 求助!!通过 apikey 调用模型进行自动生成测试用例时面临质量低的问题,但如果对接 RAG 平台又会大大增加 token 消耗,这局怎么破?

呼噜呼噜 · 2026年03月17日 · 109 次阅读

现状

目前搭建了一个特别简易的页面,支持需求分析,测试点生成,自动生成测试用例。基于上传的文档生成测试用例,文档里边是提前给出的每个功能的用例模版。当文档内的功能条数过多时,就会导致 token 消耗特别快。但如果为了保证质量。又需要人工尽可能的做好前置。这个上传的文档其实就是 AI 生成加人工审核的结果。
了解了一圈,发现要想提高质量,就要尽可能多提供前置内容,比如需求文档,以及往期用例,用例规范等等。但这些都需要在知识库里维护。如果引入知识库,那岂不是每次调用 LLM 都会提高 token 的消耗?有点卡在这里了。有没有比较成功的实践案例。欢迎提供一下思路。

暂无回复。
需要 登录 后方可回复, 如果你还没有账号请点击这里 注册