java接口压测:当接口不是瓶颈,机器cpu和网络带宽对接口qp

2020-07-26  本文已影响0人  coder爱唱歌

最近有客户对接口的qps要求特别高,所以我对接口做了很多压力测试和代码优化。代码优化主要是在减少网络请求,以及避免大量使用循环,把有些逻辑拆到定时器,然后就是热点数据缓存到redis以及jvm内存中。
除了接口优化,我想知道,当接口不是瓶颈的时候,机器的性能和网络带宽对接口qps的影响。于是,我做了以下实验。

实验目的

部署api的实验三台机器配置分别为(阿里云内网测试)

测试工具

部署wrk的机器配置

wrk测试参数

wrk -t16 -c400 -d30s -s test-nginx.lua --latency  http://172.26.68.135:9000/test/testApi

test-nginx.lua

wrk.method = "POST"
wrk.headers["Content-Type"] = "application/json"
wrk.body   = "{ \"number\": 2}"

上面的参数是本地内网环境下最优参数,测试过程中需要更改接口ip和端口。

测试代码

   Cache<String, List<TestNginxResp>> cache = Caffeine.newBuilder()
            .expireAfterWrite(1000, TimeUnit.MINUTES)
            .maximumSize(1000)
            .build();

    @PostMapping("/testApi")
    public Response<List<TestNginxResp>> getTest(@Valid @RequestBody TestNginxReq req) {
        List<TestNginxResp> cacheList = getCache(req);
        if (cacheList != null) {
            return Response.ok(cacheList);
        }
        List<TestNginxResp> list = new ArrayList<>();
        for (int i = 0; i < req.getNumber(); i++) {
            list.add(TestNginxResp.buildDefault());
        }
        cachePush(req, list);
        return Response.ok(list);
    }

    private List<TestNginxResp> getCache(TestNginxReq req) {
        String key = "test-api".concat(String.valueOf(req.getNumber()));
        List<TestNginxResp> resps = cache.getIfPresent(key);
        return resps;
    }

    public void cachePush(TestNginxReq req, List<TestNginxResp> klineRespList) {
        String key = "test-api".concat(String.valueOf(req.getNumber()));
        cache.put(key, klineRespList);
    }

请求参数示例

{
    "number":2
}

返回接口实例

{
   "code" : 200 , 
    "msg" : "ok" , 
    "body" : [
        {
            "name" : "nginx" ,
            "author" : "Igor Sysoev" , 
            "version" : "1.18" , 
            "desp":"高性能代理工具"
        },
        {
            "name" : "nginx" ,
            "author" : "Igor Sysoev" , 
            "version" : "1.18" , 
            "desp":"高性能代理工具"
        }
    ]
}

接口说明

参数中number传入数字几,就返回几个上面的bean。通过这个test-nginx.lua中的number控制返回数据包的大小。接口第一次是通过循环创建list,然后放入Caffeine的本地缓存。下次同样数量就直接从缓存拿。

影响qps的因素

综上,磁盘性能和内存的因素在本次测试中没什么影响。本次主要是测试`cpu`和`网络`对qps的影响。

实验结果

编号 机器 number 数据包 qps 传输速度 cpu使用程度
1 4核 10 2.03kb 23191.98/s 30.01MB/s 4核全打满
2 4核 391 77.57kb 4301.49/s 187.03MB/s 4核全打满
3 4核 600 119.00kb 2812.82/s 187.59MB/s 4核全打满
4 8核 10 2.03kb 42986.40/s 55.63MB/s 8核全打满
5 8核 391 77.57kb 6870.61/s 300.52MB 8核未打满
6 8核 600 119.00kb 4497.81/s 300.62MB 8核未打满
7 16核 10 2.03kb 76086.64 98.47MB/s 16核全打满
8 16核 391 77.57kb 6901.07/s 300.44MBs 16核未打满
9 16核 600 119.00kb 4517.75 300.90MB 16核未打满

备注:上面数据包大小是指:一次返回数据包大小(只包括接口数据,不包括tcp请求头之类)。传输速度的峰值主要和网络带宽相关。

实验结果分析

总结

最后上一张wrk测试接口图,以及工单和阿里云沟通的截图

wrk测试结果.png
阿里云工单.png

小tip

上一篇下一篇

猜你喜欢

热点阅读