项目大迭代更新,容易漏测,或者有很多没用评估到的地方。
如果用线上流量做一次回归测试,可以进一步减少 bug 的风险。
大大节省构造测试数据,或者构造测试数据脚本的时间,提高效率。
因为其他请求的回放,会对用户数据进行操作,有风险,需要排除。
除非构建多套备份数据库,但成本太高,不是很有必要。
不然回放就没有意义了,你都不知道回放前后对比的差异是什么。
对比完了,对于一些类似时间戳的值,其实就是噪音,这些不一样很正常,我们需要剔除,不然差异没有价值。
由此可见,想要正确打开线上流量录制回放,需要解决很多问题。
而重中之重,就是 diff。
version: '2'
services:
http-demo-record:
image: shaonian/http-demo:gor-test-v2.9
ports:
- "8080:8080"
http-demo-replay-old:
image: shaonian/http-demo:diff-old-1
http-demo-replay-old-noise:
image: shaonian/http-demo:diff-old-2
http-demo-replay-new:
image: shaonian/http-demo:diff-new
diff:
image: shaonian/diff:v0.1
command:
- -candidate=http-demo-replay-new:8080
- -master.primary=http-demo-replay-old:8080
- -master.secondary=http-demo-replay-old-noise:8080
- -service.protocol=http
- -serviceName='Diff Test'
- -proxy.port=:8880
- -admin.port=:8881
- -http.port=:8888
- -rootUrl=localhost:8888
- -summary.email='your@email.com'
ports:
- "8881:8881"
- "8888:8888"
diff 的归类有问题。
因为 url 能携带各种各样的 param,所以 diff 设计里面不会直接把 url 作为归纳名,需要通过在请求的 header 里面增加 Canonical-Resource: http-demo
来设置。
这就出来一个问题,线上转发的流量,无法根据具体的路由来动态设置归纳名,只能统一设置成是一个服务的,比如 http-demo
这样,但是我这个 http-demo
下有很多 api,出来的差异具体是哪一个 api 呢,我也不知道,得看返回字段去猜,就很华而不实。
所以做到这里,只能自嗨,无法落地到实际项目中,想要真正落地,这一步也是一定一定要解决的!
以上实现的方法总结起来,就是把录制 gor 组件写进 Dockerfile,并在项目运行的时候,实时录制线上流量,转发到测试环境,然后进行 diff 去噪对比。
但是这样就大功告成了吗?
并没有。
还有几个问题需要自我反问一下。
其实不需要。
我们只是希望能够录制线上请求,然后根据再迭代之后用来回放测试。
如果开启实时回放,会在我们不需要测试的时候,浪费服务器的性能和资源。
其实也不对。
用户不一定不触发的场景,其实我们也需要覆盖。
录制只是让我们更容易更便捷生成测试数据而已。
或多或少都有影响,毕竟 gor 和 服务处于同一个容器中。
所以三个反问以后,我们的需求逐渐明确了。
我们需要一个不会影响线上服务性能的,又能快速生成测试数据回放,并且能自定义补全更多场景的测试回放。
同时,我们还需要解决 diff 的路由智能匹配的问题。
这样可以吗?
我觉得可以。
上图是录制流量以后保存的 log 文件,我们可以清楚看到它的结构,所以这是不是意味着,只要我们写出来这份相同格式的 log,我们就能直接凭借这份 log 来回放呢?
对的。
此外,这个 log 里面,你可以直接根据具体的 url,设置好相应的 Canonical-Resource
,就直接解决了 diff 路由归纳名的问题。
而且,我们根本不需要真的到线上去录制,伪造一份这样格式的 log,甚至还可以直接修改补全一些没有的场景进去,就可以直接以此为范本,作为回放 log 的效果了。
这样也根本不需要担心线上录制会影响线上服务器的性能和资源。
那 log 我也得复制粘贴去生成,而且 log 里面的时间戳排序,我也得自己造,这样看似方便,其实只是方便了不用手写代码来编造测试数据,可以直接通过编写 log 就能回放流量。
也就是,这样的方案,只是降低了测试技术栈的门槛,提高了一点点的效率。
而且还有个问题,很多的数据,我其实是动态生成的,我传进去之前,还得通过其他接口去获取返回值,再动态填进去,这样写 log 并不能实现啊。
还有,很多参数也有时效问题,过段时间 token 过期了,我替换 token 也很麻烦。
就算,设置成万能的 token,那涉及到用户的数据,比如有些业务场景 token 里面包含了某类用户具体信息的时候,万能 token 就不管用了,因为有很多自定义的数据要去测。
所以,看似解决完所有技术栈问题以后,其实还有很多业务问题,导致它使用场景有限,甚至无法完全落地。
为什么要拘泥于用线上流量来回放呢?
如果我的脚本能够批量构造大量且覆盖众多场景,且可高度自定义的请求,再将这些请求直接去请求 diff,不就能直接对比出前后有什么差异吗?
何况,就算我的内部 rpc 服务调用更改,变得更加复杂,但是暴露在外给用户的业务操作,是不会发生大改的。
而且此前,基于项目 shaonian/boomer_locust 的压测工具,我之前已经实现了全链路压测的业务逻辑覆盖。
所以这里完全可以引出一个全新的概念,用可控速度的压测工具,以及高度灵活的编程脚本,实现大批量构造测试数据,模拟业务场景压力,并直接实现前后对比差异的不同。
因为数据全部都是新构造好的,所以不止 GET 请求我可以做,POST PUT DELETE 请求我也可以,因为数据都是我构造上传的,如果在测试环境中,完全删掉都不会有影响,而且只要设置好前后的测试脏数据的清理,其实线上数据库都能做。(当然,直接做到 stage 环境数据库就可以了,prod 没必要。)
既然正确打开了前后版本的快速 diff 测试,那么如何进一步完善呢?
当然是提高脚本的业务覆盖场景,已经代码覆盖率。
如何判断自己的构造回归流量,尽可能覆盖完全呢?
我们可以引入代码的实时染色,在本地就先测好覆盖率,再去部署上线。
这个代码实时染色,可以基于 goc 在 vscode 的插件来实现。
至此,快速构造测试数据,对比前后版本的方案成型,且可根据业务定制脚本,可落地实现,真正意义上地实现回归 diff 测试。
由此为基础以后,下一步,当然就是精准化测试,也是未来测试的大势所趋。
精准测试的概念:
借助一定的技术手段、通过辅助算法对传统软件测试过程进行可视化、分析及优化的过程,使得测试过程更加可视化、智能、可信和精准。
精准测试的目标:
精准测试的核心思想就是使用非常精确和智能的软件来解决传统软件测试过程中存在的问题,从根本上引领从经验型方法向技术型方法的转型。
质量的评估不再完全靠个人经验和业务熟悉度,而是通过精准的数据来判定。
在测试资源有限的前提下,将用例精简到更加有针对性,提高测试效率,有效的减少漏测风险。
精准测试的核心 - 双向追溯:
正向追溯: 开发人员可以看到测试人员执行用例的代码细节,以方便进行缺陷的修复,测试数据可以直接为开发调试提供依据,快速定位并修复缺陷。
逆向追溯: 测试人员通过修改的源代码快速确定测试用例的范围,极大减少回归测试的盲目性和工作量,快速修订测试用例,达到测试覆盖率最大化。
PS:技术交流 QQ 群 552643038