1.我预期的 Tps 是 200 左右,根据公式得到 Tps=pv/(集中启动时间 *3600) //不对的话请大家纠正 2.为达到 200tps 的值,根据公式得到 tps=线程数/启动时间 3.于是线程组中设置 200 个线程 +1s 启动(ramp-up),跑了 10s 左右,发现 tps 达到 600 左右,并不是预期的 200,就被我停掉了 问题: 是哪一步计算错误了吗,请大家指教
“ tps=线程数/启动时间” 这里有问题 。。tps=线程数/响应时间,响应时间是被测系统性能决定的,响应时间小,tps 自然就高了
两种方法: 1、根据公式:qps = 线程数/接口相应时间 设置,接口响应时间是波动的,所以这种方式设置出的 QPS 只是个大概的 2、利用 jmeter 的 Constant Throughput Timer,设置 QPM(每分钟的 QPS)的值,对应的 QPS=QPM/60,把线程数设置大一些(比如和 QPS 值一样),只要接口耗时正常,基本能大到你设置的 QPS 量
TPS,每秒完成的事务数 TPS = 单位时间内完成的请求 / 时间 比如,60s 总共完成了 6000 个请求,tps= 6000 / 60
设置同步定时器,两个参数都是 0