性能测试工具 从 0 到 1 构建美团压测工具 [转载]

超爱fitnesse · 2016年01月14日 · 最后由 大风 回复于 2016年01月18日 · 2052 次阅读

原文:http://tech.meituan.com/loading_test.html

美团内部的 RPC 服务大多构建在 Thrift 之上,在日常开发服务的过程中,需要针对这些服务进行压力测试(以下简称压测)来发现潜在问题。常用的方法有:

  • 使用一些脚本语言如:Python、Ruby 等,读取线上日志构建请求,用多线程模拟用户请求进行压测
  • 使用开源工具进行压测

然而,无论采取哪种方法,压测都是一个十分耗时而又繁琐的过程,主要痛点有:

  • 需要写很多代码解析日志,还原请求,对于比较复杂的请求,解析很容易出错
  • 需要搭建脚本或者工具的运行环境,通常这一过程比较耗时
  • 由于打压方法没有统一,导致打压的结果指标比较混乱,有的结果甚至以终端输出的方式展示,非常不直观
  • 对一个应用的打压测试,由于环境、代码的问题,导致组内同学很难共享

针对上述问题,提供一个简单好用的压测工具是十分有必要的。

是否有必要重复造轮子

在构建压测工具之前,对于一些现有的开源工具进行了调研。现在主流的压测工具主要有以下几个:

JMeter

JMeter 是一个比较老牌的压测工具,主要针对 HTTP 服务进行打压,该工具在以下方面并不满足美团内部的压测需求:

  • 默认不支持 Thrift 的打压测试
  • 需要本地安装,并且配置复杂
  • 对于用户操作并不友好 Jmeter

twitter/iago

iago 是一个由 Twitter 开源的压测工具,支持对 HTTP、Thrift 等服务进行压测,其主要问题如下:

  • 对每个压测应用都需要创建一个项目
  • 压测结果并不直观
  • 流量重放依赖本地文件
  • 项目依赖于一个较老版本的 Scala,搭建不便
  • 相关文档比较少

除此之外,当时还考察了 Gatling、Grinder、Locust 等一些常见的压测工具,都因为适用场景和美团的需求有些出入而排除了。

综上,针对当前压测工具的一些现状,构建一个简单易用的压测工具还是很有必要的。

目标

针对之前提到的痛点,新的压测工具主要提供以下功能:

线上流量拷贝

简单易用的操作界面(接入压测的时间应该控制在 1 小时以内)
清晰的图表能反映压测应用的各项指标
满足包括 Thrift、HTTP 等服务的压测需求

如何构建

抽象

目标已经明确,怎么实现呢?首先是抽象压测的过程。
一个典型的压测过程如图所示,首先在 init 方法里面,进行一些初始化的工作,比如连接数据库,创建客户端等。接下来,在 run 方法里面发出压测请求,为了保证能够对服务产生足够的压力,这里通常采用多线程并发访问,同时记录每次请求的发起时间和结束时间,这两个时间的简单相减就能够得到每次请求的响应时间,利用该结果就可以计算出 TP90、平均响应时间、最大响应时间等指标,等压测结束后,通过 destroy 方法进行资源回收等工作。

Model

以上过程可以用接口表示,无论是压测 Thrift 服务还是 HTTP 服务,本质上都是这三个方法实现的不同。考虑到压测工具的灵活性和通用性,压测工具可以将这个接口交给打压测试的同学实现,而压测工具则重点实现多线程打压,打压结果的聚合等比较耗时的工作。

interface Runner {
    def init(Test app) // 初始化压测
    def run(Test app, String log) // 每次打压请求,传入log方便构建请求
    def destroy(Test app) // 压测完毕后,回收资源
}

拷贝流量

Thrift 服务打压的难点之一就是如何简单地拷贝线上真实流量用来构建打压请求。一些大型的 Thrift 服务数据结构非常复杂,写打压脚本的时候需要很多代码来解析日志,而且容易出错。 因此提供一个简单好用的拷贝流量方法是十分有必要的。

在这里压测工具提供了一个叫 VCR(录像机)的工具来拷贝流量。VCR 能够将线上的请求序列化后写到 Redis 里面。

考虑到用户需要查看具体请求和易用性等需求,最终选取了 JSON 格式作为序列化和反序列化的协议。同时需要部署在生产环境,为了降低对线上服务的影响,这里采取了单线程异步写的方式来拷贝流量。

VCR

聚合数据

应用打压完成后,需要一些指标来评估压测结果,常见的指标有:

最大响应时间
平均响应时间
QPS
TP90
TP50
压测工具采用了 InfluxDB 来完成数据的聚合工作。
以 TP90 为例子,仅需要一行查询就能实现需求。

SELECT PERCENTILE(response_time, 90) FROM test_series GROUP BY time(10s)
架构
整体而言,整个打压过程如下:

Loading Test

实践
拷贝流量
美团内部的服务大多使用 Java 来构建,VCR 以 Maven Package 的方式提供给用户。

对用户来说只需要 2 行代码可以拷贝流量。

为了不影响线上服务,通常选取单台机器进行流量拷贝工作。

public class TestAppRPC implements TestApp.Iface {

    private Vcr _vcr = new Vcr("testapp"); // 指定拷贝流量的key

    @Override
    public TestResponse echo(TestRequest req) throws TException {
        _vcr.copy(req); // 拷贝操作
        long start = System.currentTimeMillis();
        TestResponse response = new TestResponse();
        return response;
    }
}

一旦流量拷贝完成后,通过 Web 界面,用户能够查看日志的收集情况和单条日志的详情。
vcr

压测逻辑实现

压测工具采用 Groovy 来进行编写。对每个应用来说,只需要实现 runner 接口就可以实现对应用的打压。

interface Runner {
    def init(Test app)
    def run(Test app, String log)
    def destroy(Test app)
}

以 Thrift 服务为例:

class TestServiceRunner implements Runner {

    RPCService.Client _client
    TTransport _transport;

    @Override
    def init(Test app) {
        def conf = app.config // 读取应用配置
        _transport = new TFramedTransport(new TSocket(conf.get("thrift_service_host") as String, conf.get("thrift_service_port") as int))
        TProtocol protocol = new TBinaryProtocol(_transport)
        _client = new RPCService.Client(protocol)
        _transport.open()
    }

    @Override
    def run(Test app, String log) {
        TestRequest req = Vcr.deSerialize(log, TestRequest.class) // 将拷贝流量反序列化
        _client.echo(req) // 发送请求
    }

    @Override
    def destroy(Test app) {
        _transport.close() // 关闭服务
    }
}

创建应用

实现以上接口后,就可以对应用进行打压了。

用户可以通过 Web 界面创建应用,除了必填配置以外,用户可以按照应用灵活配置。

vcr

性能指标

用户可以通过直观的图表来查看应用的各种性能指标。

result

结束语

压测工具上线以来,已经接入了 20 多个应用,完成数百次打压实验,现在应用的接入时间仅需要 15~30 分钟。保证了美团服务的稳定和节省了开发同学的时间,使大家告别了以往繁琐冗长的打压测试。

欢迎对这方面有兴趣的同学一起讨论。

共收到 8 条回复 时间 点赞

是不是少了一些图?

VCR 截取线上请求是如何实现的,socket+ 代理 + 协议过滤,还是用其他技术?

顶一个!

我只是无脑转载了一下,图片在http://tech.meituan.com/loading_test.html里有

这个 vcr 貌似看上去和 开源的 gor 很像啊。 不知道是否可处理 token

他们做的还是有点重. 建议用 Gor 就可以了. Gor 功能已经很强大了.

感谢分享。
个人感觉美团用 Thrift 很多,所以 VCR 的实现对该协议更友好。
Gor 应该只支持 HTTP,不满足他们的需求。

顺便说,看起来用 Influxdb 这种时序数据库存放性能采样数据是大势所趋啊

美团的 Thrift 服务占比较大,大约占了 8 成。

需要 登录 后方可回复, 如果你还没有账号请点击这里 注册