Prometheus API 使用了 JSON 格式的响应内容。 当 API 调用成功后将会返回查询结果。所有的 API 请求均使用以下的 JSON 格式:
{
"status": "success" | "error",
"data": <data>,
// Only set if status is "error". The data field may still hold
// additional data.
"errorType": "<string>",
"error": "<string>"
}
我们可以通过如下的 get 请求向普罗米修斯发送查询请求:
http://promurl:port/api/v1/query?query=kube_pod_container_info&time=1636457100
/api/v1/query
下面贴一个例子看一下我们查询的 json 结果是什么样子的:
$ curl 'http://localhost:9090/api/v1/query?query=up&time=2015-07-01T20:10:51.781Z'
{
"status" : "success",
"data" : {
"resultType" : "vector",
"result" : [
{
"metric" : {
"__name__" : "up",
"job" : "prometheus",
"instance" : "localhost:9090"
},
"value": [ 1435781451.781, "1" ]
},
{
"metric" : {
"__name__" : "up",
"job" : "node",
"instance" : "localhost:9100"
},
"value" : [ 1435781451.781, "0" ]
}
]
}
}
当 API 调用成功后,Prometheus 会返回 JSON 格式的响应内容,格式如上小节所示。并且在 data 节点中返回查询结果。data 节点格式如下:
{
"resultType": "matrix" | "vector" | "scalar" | "string",
"result": <value>
}
PromQL 表达式可能返回多种数据类型,在响应内容中使用 resultType 表示当前返回的数据类型,包括:
当返回数据类型 resultType 为 vector 时,result 响应格式如下:
[
{
"metric": { "<label_name>": "<label_value>", ... },
"value": [ <unix_time>, "<sample_value>" ]
},
...
]
其中 metrics 表示当前时间序列的特征维度,value 只包含一个唯一的样本。
当返回数据类型 resultType 为 matrix 时,result 响应格式如下:
[
{
"metric": { "<label_name>": "<label_value>", ... },
"values": [ [ <unix_time>, "<sample_value>" ], ... ]
},
...
]
其中 metrics 表示当前时间序列的特征维度,values 包含当前事件序列的一组样本。
当返回数据类型 resultType 为 scalar 时,result 响应格式如下:
[ <unix_time>, "<scalar_value>" ]
由于标量不存在时间序列一说,因此 result 表示为当前系统时间一个标量的值。
当返回数据类型 resultType 为 string 时,result 响应格式如下:
[ <unix_time>, "<string_value>" ]
字符串类型的响应内容格式和标量相同。
使用 QUERY_RANGE API 我们则可以直接查询 PromQL 表达式在一段时间返回内的计算结果。
GET /api/v1/query_range
URL 请求参数:
当使用 QUERY_RANGE API 查询 PromQL 表达式时,返回结果一定是一个区间向量:
{
"resultType": "matrix",
"result": <value>
}
需要注意的是,在 QUERY_RANGE API 中 PromQL 只能使用瞬时向量选择器类型的表达式。
例如使用以下表达式查询表达式 up 在 30 秒范围内以 15 秒为间隔计算 PromQL 表达式的结果。
$ curl 'http://localhost:9090/api/v1/query_range?query=up&start=2015-07-01T20:10:30.781Z&end=2015-07-01T20:11:00.781Z&step=15s'
{
"status" : "success",
"data" : {
"resultType" : "matrix",
"result" : [
{
"metric" : {
"__name__" : "up",
"job" : "prometheus",
"instance" : "localhost:9090"
},
"values" : [
[ 1435781430.781, "1" ],
[ 1435781445.781, "1" ],
[ 1435781460.781, "1" ]
]
},
{
"metric" : {
"__name__" : "up",
"job" : "node",
"instance" : "localhost:9091"
},
"values" : [
[ 1435781430.781, "0" ],
[ 1435781445.781, "0" ],
[ 1435781460.781, "1" ]
]
}
]
}
}
最近做了一个资源优化专项,目的是实际了解一下业务运行时产品 160+ 的服务每个服务所使用的 cpu 和内存情况。 并对比他们申请的 request 和 limit 的值,计算服务是否申请了过多的资源导致资源浪费。 所以我们要通过 HTTP PromQL 把相关的数据查询出来。
prom_url = 'http://1.117.219.41:30778'
start_time = str(int(datetime.strptime("09/11/2021 19:25:00", "%d/%m/%Y %H:%M:%S").timestamp()))
end_time = str(int(datetime.strptime("09/11/2021 21:25:00", "%d/%m/%Y %H:%M:%S").timestamp()))
result = {}
r = requests.get(
url='{prom_url}/api/v1/query_range?query=sum(node_namespace_pod_container%3Acontainer_cpu_usage_seconds_total%3Asum_rate%7Bcluster%3D%22cls-hchrqyex%22%7D)%20by%20(pod)&start={start}&end={end}&step=30'.format(
start=start_time, end=end_time, prom_url=prom_url))
datas = r.json()['data']['result']
for data in datas:
pod_name = data['metric']['pod']
cpu_usages = []
for c in data['values']:
cpu_usages.append(float(c[1]))
max_value = max(cpu_usages)
avg_value = statistics.mean(cpu_usages)
result[pod_name] = {
'cpu_max_usage': max_value,
'cpu_avg_usage': avg_value
}
上面代码中的 PromQL 是sum(node_namespace_pod_container:container_cpu_usage_seconds_total:sum_rate) by (pod)
首先 node_namespace_pod_container:container_cpu_usage_seconds_total:sum_rate 是一个预定义的查询别名。 有些查询语句过于复杂,所以我们可以给复杂的语句一个别名, 这样在使用 的时候就比较方便了。 而我们使用的这个别名就如同它的名字一样, 是查询每个容器的 cpu 使用率的。 因为一个 pod 里可能会有多个容器, 所以需要使用 sum by (pod) 的方式统计出每个 pod 的 cpu 使用率总和。 这里我们使用的就是一个 query_range 的查询类型。 因为我们希望查询在测试期间的 2 个小时内 cpu 使用率的最大值和平均值。 所以我们在请求最后使用step=30
这个参数来指定每隔 30s 计算一次指标,然后我们在使用 start 和 end 参数指定了一个时间范围。所以在指定的这 2 个小时内,每隔 30s 就会使用 PromQL 查询一次,这样返回结果里我们就有了很多个采样数据, 反应了随着时间变化 CPU 使用率的情况。 这时候我们再编写 python 代码把返回的 json 取出来计算最大值和平均值即可。