职业经验 想请教:如何量化功能测试的工作成果?

徐汪成 · 2023年02月03日 · 最后由 徐汪成 回复于 2023年10月11日 · 6360 次阅读

换个说法,如何在功能测试团队(不包括自动化和性能)做 KPI 考核,应该考虑哪些因素?如何针对功能测试负责的不同业务模块去设计出更加公平合理的 KPI 计算公式?
目前我们功能测试团队的工作偏外包,大概 40 多人,有固定的项目来测试,每个人负责的项目会经常变动,日常也会有新需求的测试。但是每个人负责的大概业务种类差不多都固定下来了。
我们内部讨论了下,决定先用 得分=需求数/项目数 + 用例实际执行数/需求项目总数 这样的公司来计算得分,内部先尝试实验 2 个月,再看看实际情况在做优化。
不知道有没有大佬有相关的经验可供分享?

共收到 11 条回复 时间 点赞

把握住几个关键指标;

  1. 用例有效数,加分
  2. 用例执行数,加分
  3. 有效 bug 数,加分
  4. 完成的功能点,加分
  5. 线上漏测,减分

用例有效数,是用什么方法来判断,发现 bug?

如果要公平量化,建议团队内部对测试用例的复杂度进行分级

OBJ 回复

具体看颗粒度,

  1. 大颗粒度:能够验证需求场景的,即为有效用例
  2. 小颗粒度:能够发现缺陷的,即为有效用例

总之来讲,针对测试人员,编写的测试用例,进行评审,剔除多余/无效/错误用例,剩下的,广义上,都是有效

需要考虑需求的测试难度?用例的执行难度吗?

感觉对于项目测试难度高,比如需求复杂、项目逻辑复杂、代码要求高之类的项目,按照这个来有些不公平

徐汪成 回复

这个,可以作为次参考点吧

如果每个功能模块,其实工作量都差不多,就没必要,除非是特别明显的区别,可以额外考虑。

其实,抓住几个关键出入的地方;

测试,本质上就是找出问题,最大化降低线上出现问题;

每个项目难度是不一致的,所以,项目难度,也是可以作为指标的;

最终,还是要看测试质量,确保项目上线,如果各种测试用例,各种执行都很好,项目不能上线,也没意义;

线上 BUG 漏测数,是一个很重要的指标,直接衡量版本测试质量

8 个月过去了,来分享下你的实验结果吧

具体工作不是我做的,我只是帮我们这边的项目经理问的,具体情况我还不是非常了解。

需要 登录 后方可回复, 如果你还没有账号请点击这里 注册