腾讯mini项目-【指标监控服务重构】2023-08-29

今日已办

Collector 指标聚合

由于没有找到 Prometheus 官方提供的可以聚合指定时间区间内的聚合函数,所以自己对接Prometheus的api来聚合指定容器的cpu_avg、cpu_99th、mem_avg

实现成功后对接小组成员测试完提供的时间序列和相关容器,将数据记录在表格中

image-20230829135852878

  1. SpringBoot RestController
  2. Jackson json serialization
  3. data aggregation
/**
 * @author xzx
 * @date 2023/8/29
 */
@RestController
@RequestMapping("/prometheus")
public class PrometheusController {

    @GetMapping
    public ResponseResult GetMetrics(@RequestParam String ip,
                                     @RequestParam String containerName,
                                     @RequestParam String startDay,
                                     @RequestParam String startHour,
                                     @RequestParam String startMinute,
                                     @RequestParam String startSecond,
                                     @RequestParam String endDay,
                                     @RequestParam String endHour,
                                     @RequestParam String endMinute,
                                     @RequestParam String endSecond,
                                     @RequestParam int idx) {


        String queryCpu = "sum(irate(container_cpu_usage_seconds_total{name=\"" + containerName + "\"}[5m])) without (cpu)";
        String start = startDay + "T" + startHour + ":" + startMinute + ":" + startSecond + ".000Z";
        String end = endDay + "T" + endHour + ":" + endMinute + ":" + endSecond + ".000Z";
        List<List<Object>> cpuValues = getValues(ip, start, end, queryCpu, idx);

        List<Double> cpuList = new ArrayList<>();
        Double sum = (double) 0;
        for (List<Object> value : cpuValues) {
            if (value.size() == 2) {
                Double v = Convert.toDouble(value.get(1));
                sum += v;
                cpuList.add(v);
            }
        }
        Collections.sort(cpuList);

        String queryMem = "container_memory_usage_bytes{name=\"" + containerName + "\"}";
        List<List<Object>> memValues = getValues(ip, start, end, queryMem, 0);
        long memSum = 0;
        for (List<Object> value : memValues) {
            if (value.size() == 2) {
                memSum += Convert.toLong(value.get(1));
            }
        }

        PrometheusMetricsData data = new PrometheusMetricsData()
                .setCpu95th(cpuList.get(Convert.toInt(0.95 * cpuList.size())) * 100)
                .setCpuAvg(sum / Convert.toDouble(cpuValues.size()) * 100)
                .setMemAvg(memSum / memValues.size());

        return ResponseResult.okResult(data);
    }

    private List<List<Object>> getValues(String ip, String start, String end, String queryCpu, int idx) {
        String body = HttpRequest.get("http://" + ip + "/prometheus/api/v1/query_range?query=" + queryCpu + "&start=" + start + "&end=" + end + "&step=1s")
                .timeout(20000)
                .execute().body();
        PrometheusRespDto prometheusRespDto = JSONUtil.toBean(body, PrometheusRespDto.class);


        List<PromResult> result = prometheusRespDto.getData().getResult();
        List<List<Object>> values = result.get(idx).getValues();

        return values;
    }

}

测试

确定测试方案

我们打算在 10 万到 100万之间摸一个不会丢的量以及合适的并发量,作为不同 collector 测存储和查询的前提

我们能不能固定一个数量,然后使用相同的代码来上报相同的trace(只是可以控制线程睡眠时间)来调整耗时,让两种collector都能完整的上报所有数据,保证不回丢失,最后来计算存储大小

image-20230829205845583

image-20230829205535246

image-20230829210324486

image-20230829210653746

image-20230829211857226

编写测试函数

func TestTraceSpan(t *testing.T) {
	ctx := context.Background()
	res, err := resource.New(ctx,
		resource.WithFromEnv(),
		resource.WithProcess(),
		resource.WithTelemetrySDK(),
		resource.WithHost(),
		resource.WithAttributes(
			attribute.String("service.name", "test-service"),
			attribute.String("library.language", "go"),
		),
	)
	if err != nil {
		return
	}
	otel.SetTextMapPropagator(propagation.NewCompositeTextMapPropagator(propagation.TraceContext{}, propagation.Baggage{}))
	tracerProviderShutDown := otelclient.InitTraceProvider(res, ctx)
	defer tracerProviderShutDown()

	testTracer := otel.Tracer("test_demo", trace.WithInstrumentationAttributes(attribute.String("demo.author", "xzx")))
	group := sync.WaitGroup{}
	for i := 0; i < 50; i++ {
		group.Add(1)
		go func(num int) {
			for j := 0; j < 4000; j++ {
				rootCtx, span := testTracer.Start(ctx, "demo_root_span"+string(rune(num)), trace.WithSpanKind(trace.SpanKindProducer), trace.WithAttributes(attribute.String("user.username", uuid.NewString())))
				for k := 0; k < 4; k++ {
					_, subSpan := testTracer.Start(rootCtx, "demo_sub_span", trace.WithSpanKind(trace.SpanKindInternal))
					if subSpan.IsRecording() {
						subSpan.SetAttributes(attribute.String("user.uuid", uuid.NewString()),
							attribute.Int64("user.ip", int64(uuid.New().ID())))
					}
					time.Sleep(10 * time.Millisecond)
					subSpan.End()
				}
				time.Sleep(time.Millisecond * 41)
				span.End()
			}
			group.Done()
		}(i)
	}
	group.Wait()
}

汇总进度和问题

  1. es 的监控平台的 文档数 和 kibana 的数据条数不一致,最后以 kibana 的 hits 为基准
  2. 测试上报最终的数据丢失,测试不准确,由于并发数太多了,大多数据都存储在内存中,由于超时被丢弃
  3. 官方的 otel-collector 的数据库和表创建耗费时间长
  4. 协助测试组员的记录来聚合容器指标,记录表格内容,完成 trace-collector、metric-collector的测试结果表格
  5. clickhouse的数据**“幻读”**
    1. 存在副本
    2. 同步时间较长,写入后需要一段时间后才能看到另一个节点的数据拷贝
    3. 删除通过SQLDROP Database database_name SYNC 无法drop所有节点的数据库,故删除后一段时间后又会查询到该数据库的数据
  6. 测试周期较长,测试结果的采集不够自动化,测试样例和次数不太丰富,由于前期的测试方案方向和方法不正确,走了很多外路,不过在组员的努力和导师的指导下跌跌撞撞勉强完成测试结果
  7. 。。。

明日待办

  1. PPT制作
  2. 录制Showcase视频
  3. 绘制Showcase表格和图像
  4. 输出测试结果的总结
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

奥库甘道夫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值