• 某鱼是指啥?我们后端主程找的一个教程,自己弄的,我这个是他充值账号下开的令牌,平台确实有一个叫智汇 API。

  • 请问你是业务上的 QA 么?👏 感觉过简历现在有点困难。

  • 我个人体验下来,游戏测试的用例产出能达到这个精度的话,软件测试用例就更不用说了,我感觉精度更是高的吓人了。

  • 1、目录结构上看起来挺像的,但是我比你的会全一些,我觉得主要你缺了一个评测模块,它的作用是,规范化这个管线模块中的内容,因为系统跟战斗是完全不同的 2 个管线,所以你要约束规范他们的产出路径。上游策划案就需要去约束(我这边会规范化以后去打分策划案,评分太低的不满足我要求的,我会直接跟主策划说,案子质量太低了这种)约束的关键词如:存在未定义的概念;案子之间存在相同名词,但是名词定义不统一;模糊的场景描述;注入此类的关键约束,约束完以后,然后再依赖按照咱自己的测试用例输出格式输出测试用例;另外我的 Skill 跟知识库是分开的,因为我的经验库(知识库)是全局的,Skill 是非全局的(局内,外围,流程,资源)这种细化的检查,模块的话,就是一级目录是模块名,二次目录就是规范化以后的策划案还有归档以后的原始稿;其他的大差不差,我后面计划还有置入自动化动作检查,但是需要有合适的视频解析的大模型;
    2、我没用 dify,就是一个单纯的知识库性质的 md 文件,结构简单的,就是我上面描述的那种。我觉得自己通过依赖关系去自查就 OK 了,还有就是要有纠错逻辑,就是差异化的内容要消化在生产过程中;
    3、目前非强制,但是设计框架要基本遵循,不然就太扯淡了,我们主策原话:你无法去约束每个人都按照你这样的设计结构去描述,我迄今为止没见过,那都这样说了,那按照设计框架去设计总说得过去吧?所以这边规范化策划案的流程中就是按照设计框架去解析他写的原始稿,通过走这个流程,强制把所有的策划的产出拉齐,这样就解决问题了。缺少的东西会体现出来,比如:我们设计动作的时候,会给对应匹配逻辑,资源池,动作标注的名称,衔接优化的逻辑,最终的表现解决预期这类的描述,这些都是抽象出来的。
    直说的话,就是 AI 帮我们清晰数据,给一个最规范的内容。

  • 嗯,是的。维护一个目录仓库,本地的知识库是我抽象出来的通用知识框架,产物就是一个 md 文件,但是里面会记录每次生成的 case 的依赖关系,差异化的知识清单,每次生成 case 的时候都通读知识清单里的内容。命中率挺高的。

  • 目前我这边用起来成本比较低的方式:

    git 托管知识库,规范化和评测策划案,编写测试用例,用例输出规范等相关 Skill 和知识库文件;

    然后花点钱买 claudecode 的令牌(30 块左右吧,无限额度,偶尔会抽风那种无伤大雅)每次通过多个 Agent 并行执行去批量导入文件(主要是解决上下文限制问题)。

    现在的方式就是,策划案有了就导入到这套流程里,然后就去忙别的,然后他自己帮我生成相应的处理路径,但是需要我 review 下关键信息:矛盾的点啊,有分歧的内容,需要我进一步确认,然后就这样生成相应的用例了。

    目前我组搭建以后已经用起来了,系统相关的测试收效甚好(写的比系统测试的小伙伴写的好,非常全,个别难以搭建的测试场景,我让他们自己斟酌),战斗需要更详细的 Skill 要求跟依赖关系(我是 ACT 类的写实战斗游戏)效果也能达到个 7788,因为搭建半个月,内容量还没起来,但是只会越来越好。

    这是我目前的方式,支持迭代也支持历史批量导入生成。

  • 发钱了吗? at 2026年02月28日

    纵向比。😭

  • 发钱了吗? at 2026年02月14日

    发了,但是不及预期,难受了。😭

  • 有在回家路上的吗 at 2026年02月14日

    今天最后一天班。 冲!~😤

  • 有点不想干了 at 2026年01月08日

    出于好奇,无恶意,车载测试,是不是平时会有外出开车的测试习惯?