AutoMeter 是一款针对分布式服务,微服务 API 做功能和性能一体的自动化测试平台。针对接口支持分布式功能和性能测试,极大的满足了技术人员的接口测试需求

着力解决在系统,项目开发,迭代交付过程中 开发人员,测试人员,技术人员针对系统提供的 API 做调试,回归测试,性能测试。自动化测试,本质上解决 API 测试的 5 大基本问题:

1.由什么角色使用?
2.在什么环境使用?
3.针对什么进行目标?
4.做什么样的测试?
5.得到什么样的结果?

1.运行测试的环境如何定义?

一般个人,公司在使用分布式,微服务架构,从开发到发布上线可能会经过多套环境测试验证,比如开发环境,测试环境,准生产环境,生产环境,其中测试环境又可能分为多套功能测试环境和性能测试环境,多套环境分开管理,可以有序而不相互干扰进行测试工作 每套环境由开发的发布单元 (服务,站点,应用各个公司叫法不一样),即提供 api 服务能力的实体,中间件 (数据库,nosql,web 服务器等等) 这些元素组成 对于测试来说以上的元素我们需要部署到指定的服务器或者容器中整体来作为一套环境做测试工作

2.针对什么来做测试?

针对具体开发的服务 (发布单元,应用,站点),既提供 API 的实体,这边我们命名为发布单元,可以定义访问此服务的协议,端口。 此发布单元包含了若干个 API,每个 API 会有对应的参数需要维护,这其实也是个人或者公司提供对内对外 api 能力的定义

3.怎么运行测试用例?

从个人或者公司的角度看,用例的数量和类型来决定需要做怎么样的执行,如果用例数量庞大,并且需要快速得到结果,本质上我们需要拆分用例由多机并行执行满足需求,也就是多点执行,如果需要性能的测试,执行性能的机器我们可以是低性能的多台机器发起或者是高性能的少量机器发起,所以说怎么运行是根据需要来定制执行用例的类型和机器数量

4.获得什么样的反馈报告?

对于用例执行完,我们希望看到什么反馈,对于开发,测试,或者其他技术人员,我们希望看到运行的用例详细信息:结果状态,运行时间,API 的具体响应,我的期望,断言的详细信息,以及用例运行时的信息。对应性能来说,我们还非常希望能得到多次回归统计的信息,比如整体性能的时间,tps,响应时间,99%pct 信息对比,来比较优化后的成效

架构设计

欢迎一起讨论交流:

Github:https://github.com/AutoMeter/AutoMeter-API
Gitee:https://gitee.com/season-fan/autometer-api

在线体验:
http://81.69.0.136/#/login
test test123


↙↙↙阅读原文可查看相关链接,并与作者交流