在分布式系统中,使用OTEL、Jaeger和Prometheus监控服务

译文 精选
开发 前端
本文将OTEL、Jaeger和Prometheus相结合,在分布式系统中实现更快、更集中的可观察性,从而快速排除故障。

译者 | 李睿

审校 | 重楼

本文将深入探讨一个至关重要的问题:当系统出现问题时,应当如何有效地监控服务

一方面,可以借助具备提醒功能的Prometheus,以及集成仪表板和其他实用功能的Kibana来增强监控能力。另一方面,在日志收集方面,ELK堆栈无疑是首选方案。然而,简单的日志记录往往不足以满足需求,因为它无法提供覆盖整个组件生态系统的请求流程的整体视图。

如果直观地展示请求流程呢?或者需要在系统间追踪关联的请求,该怎么办?这既适用于微服务,也适用于单体服务——有多少服务并不重要;重要的是如何管理它们的延迟。

事实上,每个用户请求可能要经过由独立服务、数据库、消息队列和外部API组成的复杂链路。

在这种复杂的环境中,很难准确地确定延迟发生的位置,确定链路的哪一部分是性能瓶颈,并在发生故障时快速找到其根本原因。

为了有效地应对这些挑战,需要一个集中的、一致的系统来收集遥测数据——包括跟踪、指标和日志。这正是OpenTelemetry和Jaeger发挥重要作用的地方。

了解基础知识

人们必须理解以下两个主要术语:

Trace ID

Trace ID是一个16字节的标识符,通常表示为32个字符的十六进制字符串。它在跟踪开始时自动生成,并在由特定请求创建的所有跨度中保持不变。这样可以很容易地看到请求是如何通过系统中的不同服务或组件传递的。

Span ID

跟踪中的每个单独操作都有自己的Span ID,它通常是一个随机生成的64位值。Span共享相同的Trace ID,但是每个Span都有一个唯一的Span ID,因此可以确定每个Span代表工作流的哪个部分(如数据库查询或对另一个微服务的调用)。

它们之间有何关联?

Trace IDSpan ID是相辅相成的。

当发起请求时,会生成一个Trace ID,并将其传递给所有相关服务。每个服务又会创建一个与Trace ID关联的、具有唯一Span ID的Span,从而能够可视化请求从开始到结束的完整生命周期。

那么,为什么不直接使用Jaeger呢?为什么需要OpenTelemetry(OTEL)及其所有规范?这是一个很好的问题!以下逐步分析。

  • Jaeger是一个用于存储和可视化分布式跟踪的系统。它收集、存储、搜索和显示数据,显示请求如何通过服务“传输”。
  • OpenTelemetry (OTEL)是一个标准(以及一组库),用于从应用程序和基础设施中收集遥测数据(跟踪、指标、日志)。它不依赖于任何单一的可视化工具或后端。

简而言之:

  • OTEL就像一种“通用语言”和一组遥测收集库。
  • Jaeger是用于查看和分析分布式跟踪的后端和用户界面。

如果已经有了Jaeger,为什么还要OTEL?

1.单一的收集标准

在过去,有像OpenTracing和OpenCensus这样的项目。OpenTelemetry将这些收集指标和跟踪的方法统一到一个通用标准中。

2.易于集成

采用Go(或其他语言)编写代码,为自动注入拦截器和跨度添加OTEL库,就这样完成。之后,无论想把数据发送到哪里并不重要——Jaeger、Tempo、Zipkin、Datadog、自定义后端——OpenTelemetry都会负责管道。只需换导出器即可。

3.不仅仅是跟踪

OpenTelemetry不仅涵盖跟踪,还处理指标和日志。最终,可以使用一个工具集来满足所有遥测需求,而不仅仅是跟踪。

4.以Jaeger为后端

如果主要对分布式跟踪可视化感兴趣,Jaeger是一个很好的选择。但默认情况下,它不提供跨语言检测。另一方面,OpenTetry提供了一种标准化的数据收集方式,然后可以决定将数据发送到哪里(包括Jaeger)。

在实践中,它们经常协同工作

应用程序使用OpenTelemetry→通过OTLP协议通信→进入OpenTelemetry收集器(HTTP或gRPC)→导出到Jaeger进行可视化。

技术部分

系统设计(简要介绍)

以下快速勾勒出几个服务,这些服务将执行以下操作:

1.购买服务——处理付款并记录在MongoDB中

2.CDC与Debezium——监听MongoDB表中的更改,并将它们发送到Kafka

3.购买处理器——使用来自Kafka的消息并调用Auth服务查找user_id进行验证

4.认证服务——一种简单的用户服务

总结:

  • 3 Go services
  • Kafka
  • CDC (Debezium)
  • MongoDB

代码部分

从基础设施开始。为了将所有内容汇集到一个系统中,将创建一个大型的DockerCompose文件从设置遥测开始。

注:所有代码都可以通过本文末尾的链接获得,包括基础设施。

YAML 
 services:

 jaeger:
 image: jaegertracing/all-in-one:1.52
 ports:
 - "6831:6831/udp" # UDP port for the Jaeger agent
 - "16686:16686" # Web UI
 - "14268:14268" # HTTP port for spans
 networks:
 - internal

 prometheus:
 image: prom/prometheus:latest
 volumes:
 - ./prometheus.yml:/etc/prometheus/prometheus.yml:ro
 ports:
 - "9090:9090"
 depends_on:
 - kafka
 - jaeger
 - otel-collector
 command:
 --config.file=/etc/prometheus/prometheus.yml
 networks:
 - internal

 otel-collector:
 image: otel/opentelemetry-collector-contrib:0.91.0
 command: ['--cnotallow=/etc/otel-collector.yaml']
 ports:
 - "4317:4317" # OTLP gRPC receiver
 volumes:
 - ./otel-collector.yaml:/etc/otel-collector.yaml
 depends_on:
 - jaeger
 networks:
 - internal

还将配置收集器——收集遥测数据的组件。

在这里选择gRPC进行数据传输,这意味着通信将通过HTTP/2进行:

YAML 
 receivers:
 # Add the OTLP receiver listening on port 4317.
 otlp:
 protocols:
 grpc:
 endpoint: "0.0.0.0:4317"

 processors:
 batch:
 # https://github.com/open-telemetry/opentelemetry-collector/tree/main/processor/memorylimiterprocessor
 memory_limiter:
 check_interval: 1s
 limit_percentage: 80
 spike_limit_percentage: 15

 extensions:
 health_check: {}

 exporters:
 otlp:
 endpoint: "jaeger:4317"
 tls:
 insecure: true
 prometheus:
 endpoint: 0.0.0.0:9090
 debug:
 verbosity: detailed

 service:
 extensions: [health_check]
 pipelines:
 traces:
 receivers: [otlp]
 processors: [memory_limiter, batch]
 exporters: [otlp]

 metrics:
 receivers: [otlp]
 processors: [memory_limiter, batch]
 exporters: [prometheus]

确保根据需要调整任何地址,这样就完成了基本配置。

OpenTelemetry (OTEL)使用两个关键概念——Trace ID和Span ID,它们有助于跟踪和监控分布式系统中的请求。

代码实现

现在了解如何让它在Go代码中实现这一点。需要以下导入:

Go 
 "go.opentelemetry.io/otel"
 "go.opentelemetry.io/otel/exporters/otlp/otlptrace"
 "go.opentelemetry.io/otel/exporters/otlp/otlptrace/otlptracegrpc"
 "go.opentelemetry.io/otel/sdk/resource"
 "go.opentelemetry.io/otel/sdk/trace"
 semconv "go.opentelemetry.io/otel/semconv/v1.17.0"

然后,当应用程序启动时,在main()中添加一个函数来初始化跟踪器:

Go 
 func InitTracer(ctx context.Context) func() {
 exp, err := otlptrace.New(
 ctx,
 otlptracegrpc.NewClient(
 otlptracegrpc.WithEndpoint(endpoint),
 otlptracegrpc.WithInsecure(),
 ),
 )
 if err != nil {
 log.Fatalf("failed to create OTLP trace exporter: %v", err)
 }

 res, err := resource.New(ctx,
 resource.WithAttributes(
 semconv.ServiceNameKey.String("auth-service"),
 semconv.ServiceVersionKey.String("1.0.0"),
 semconv.DeploymentEnvironmentKey.String("stg"),
 ),
 )
 if err != nil {
 log.Fatalf("failed to create resource: %v", err)
 }

 tp := trace.NewTracerProvider(
 trace.WithBatcher(exp),
 trace.WithResource(res),
 )

 otel.SetTracerProvider(tp)

 return func() {
 err := tp.Shutdown(ctx)
 if err != nil {
 log.Printf("error shutting down tracer provider: %v", err)
 }
 }
 }

在设置跟踪之后,只需要在代码中放置span来跟踪调用。例如,如果想测量数据库调用(因为这通常是寻找性能问题的第一个地方),可以这样写:

Go 
 tracer := otel.Tracer("auth-service")
 ctx, span := tracer.Start(ctx, "GetUserInfo")
 defer span.End()

 tracedLogger := logging.AddTraceContextToLogger(ctx)

 tracedLogger.Info("find user info",
 zap.String("operation", "find user"),
 zap.String("username", username),
 )


user, err := s.userRepo.GetUserInfo(ctx, username)
 if err != nil {
 s.logger.Error(errNotFound)
 span.RecordError(err)
 span.SetStatus(otelCodes.Error, "Failed to fetch user info")

 return nil, status.Errorf(grpcCodes.NotFound, errNotFound, err)
 }

 span.SetStatus(otelCodes.Ok, "User info retrieved successfully")

在服务层进行跟踪,这太棒了!但可以更深入地分析数据库层:

Go 
 func (r *UserRepository) GetUserInfo(ctx context.Context, username string) (*models.User, error) {
 tracer := otel.Tracer("auth-service")
 ctx, span := tracer.Start(ctx, "UserRepository.GetUserInfo",
 trace.WithAttributes(
 attribute.String("db.statement", query),
 attribute.String("db.user", username),
 ),
 )
 defer span.End()

 var user models.User
 
 // Some code that queries the DB...
 // err := doDatabaseCall()

 if err != nil {
 span.RecordError(err)
 span.SetStatus(codes.Error, "Failed to execute query")
 return nil, fmt.Errorf("failed to fetch user info: %w", err)
 }

 span.SetStatus(codes.Ok, "Query executed successfully")
 return &user, nil
 }

现在,对请求过程有了完整的了解。前往Jaeger UI,查询auth-service下的最后20条跟踪记录将会在一个界面中看到所有的Span以及它们之间的关联方式。

现在,一切都是可见的。如果需要,可以将整个查询包含在标记中。需要记住,不应该使遥测过载——故意添加数据。在这里只是在演示什么是可能的,但包括完整的查询,通常不推荐这种方式。

gRPC客户机-服务器

如果希望查看跨越两个gRPC服务的跟踪,这很简单。需要做的就是从库中添加开箱即用的拦截器。例如,在服务器端:

Go 
 server := grpc.NewServer(
 grpc.StatsHandler(otelgrpc.NewServerHandler()),
 )

 pb.RegisterAuthServiceServer(server, authService)

在客户端,代码也很短:

Go 
 shutdown := tracing.InitTracer(ctx)
 defer shutdown()

 conn, err := grpc.Dial(
 "auth-service:50051",
 grpc.WithInsecure(),
 grpc.WithStatsHandler(otelgrpc.NewClientHandler()),
 )
 if err != nil {
 logger.Fatal("error", zap.Error(err))
 }

就是这样!确保导出器配置正确,当客户端调用服务器时,将看到这些服务上记录的单个Trace ID。

处理CDC事件和跟踪

也想变更数据捕获 (CDC)的事吗?一个简单的方法是将Trace ID嵌入到MongoDB存储的对象中。这样,当Debezium捕获更改并将其发送给Kafka时,Trace ID已经是记录的一部分。

例如,如果使用的是MongoDB,可以这样做:

Go 
 func (r *mongoPurchaseRepo) SavePurchase(ctx context.Context, purchase entity.Purchase) error {
 span := r.handleTracing(ctx, purchase)
 defer span.End()

 // Insert the record into MongoDB, including the current span's Trace ID
 _, err := r.collection.InsertOne(ctx, bson.M{
 "_id": purchase.ID,
 "user_id": purchase.UserID,
 "username": purchase.Username,
 "amount": purchase.Amount,
 "currency": purchase.Currency,
 "payment_method": purchase.PaymentMethod,
 // ...
 "trace_id": span.SpanContext().TraceID().String(),
 })

 return err
 }

然后Debezium拾取这个对象(包括trace_id)并将其发送给Kafka。在消费者端,只需解析传入消息,提取trace_id,并将其合并到跟踪上下文中:

Go 
 // If we find a Trace ID in the payload, attach it to the context
 newCtx := ctx
 if traceID != "" {
 log.Printf("Found Trace ID: %s", traceID)
 newCtx = context.WithValue(ctx, "trace-id", traceID)
 }

 // Create a new span
 tracer := otel.Tracer("purchase-processor")
 newCtx, span := tracer.Start(newCtx, "handler.processPayload")
 defer span.End()

 if traceID != "" {
 span.SetAttributes(
 attribute.String("trace.id", traceID),
 )
 }

 // Parse the "after" field into a Purchase struct...
 var purchase model.Purchase
 if err := mapstructure.Decode(afterDoc, &purchase); err != nil {
 log.Printf("Failed to map 'after' payload to Purchase struct: %v", err)
 return err
}

Go:

// If we find a Trace ID in the payload, attach it to the context
 newCtx := ctx
 if traceID != "" {
 log.Printf("Found Trace ID: %s", traceID)
 newCtx = context.WithValue(ctx, "trace-id", traceID)
 }

 // Create a new span
 tracer := otel.Tracer("purchase-processor")
 newCtx, span := tracer.Start(newCtx, "handler.processPayload")
 defer span.End()

 if traceID != "" {
 span.SetAttributes(
 attribute.String("trace.id", traceID),
 )
 }

 // Parse the "after" field into a Purchase struct...
 var purchase model.Purchase
 if err := mapstructure.Decode(afterDoc, &purchase); err != nil {
 log.Printf("Failed to map 'after' payload to Purchase struct: %v", err)
 return err
 }

替代方案:使用Kafka标头

有时,将Trace ID存储在Kafka标头中比存储在负载本身中更容易。对于CDC工作流来说,这可能无法开箱使用——Debezium可能限制添加到标题中的内容。但是如果控制了生产者端(或者如果使用的是标准的Kafka生产者),那么可以使用Sarama等工具执行以下操作:

Trace ID注入标头

Go 
 // saramaHeadersCarrier is a helper to set/get headers in a Sarama message.
 type saramaHeadersCarrier *[]sarama.RecordHeader

 func (c saramaHeadersCarrier) Get(key string) string {
 for _, h := range *c {
 if string(h.Key) == key {
 return string(h.Value)
 }
 }
 return ""
 }

 func (c saramaHeadersCarrier) Set(key string, value string) {
 *c = append(*c, sarama.RecordHeader{
 Key: []byte(key),
 Value: []byte(value),
 })
 }

// Before sending a message to Kafka:
 func produceMessageWithTraceID(ctx context.Context, producer sarama.SyncProducer, topic string, value []byte) error {
 span := trace.SpanFromContext(ctx)
 traceID := span.SpanContext().TraceID().String()

 headers := make([]sarama.RecordHeader, 0)
 carrier := saramaHeadersCarrier(&headers)
 carrier.Set("trace-id", traceID)

 msg := &sarama.ProducerMessage{
 Topic: topic,
 Value: sarama.ByteEncoder(value),
 Headers: headers,
 }

 _, _, err := producer.SendMessage(msg)
 return err
 }

在消费者端提取Trace ID

Go 
 for message := range claim.Messages() {
 // Extract the trace ID from headers
 var traceID string
 for _, hdr := range message.Headers {
 if string(hdr.Key) == "trace-id" {
 traceID = string(hdr.Value)
 }
 }

 // Now continue your normal tracing workflow
 if traceID != "" {
 log.Printf("Found Trace ID in headers: %s", traceID)
 // Attach it to the context or create a new span with this info
 }
 }

根据用例和CDC管道的设置方式,可以选择最有效的方法:

1.在数据库记录中嵌入Trace ID,使其通过CDC自然流动。

2.如果对生产者有更多的控制权,或者想避免增加消息有效载荷的大小,可以使用Kafka标头。

无论哪种方式,都可以确保跨多个服务的跟踪信息保持一致,即使事件是通过Kafka和Debezium异步处理的。

结论

使用OpenTelemetry和Jaeger提供详细的请求跟踪信息,帮助确定分布式系统中延迟发生的位置和原因。

在添加Prometheus之后,可以通过指标(性能和稳定性的关键指标)完善监控体系。这些工具共同构成了一个全面的可观测性堆栈,能够更快地检测和解决问题、优化性能以及提高系统的整体可靠性。

可以说,这种方法在微服务环境中显著加快了故障排除的速度,是在项目中最先实施的事项之一。

参考链接

a.MongoDB Connector Docs

b.Unwrap MongoDB SMT Example

原文标题:Control Your Services With OTEL, Jaeger, and Prometheus,作者:Ilia Ivankin

责任编辑:华轩 来源: 51CTO
相关推荐

2023-05-29 14:07:00

Zuul网关系统

2022-02-08 10:21:17

运维应用监控

2022-08-05 10:03:17

分布式微服务

2022-03-01 16:26:09

链路监控日志监控分布式系统

2024-07-05 08:26:54

2011-04-01 10:18:12

zabbix

2023-09-19 21:09:40

可视化监控Skywalking

2021-06-09 09:00:00

微服务架构技术

2017-01-16 14:51:26

京东分布式服务CallGraph

2023-05-12 08:23:03

分布式系统网络

2018-06-08 08:46:14

RaftPaxos系统

2017-10-27 08:40:44

分布式存储剪枝系统

2020-11-24 09:36:19

分布式监控系统

2018-12-14 10:06:22

缓存分布式系统

2023-10-26 18:10:43

分布式并行技术系统

2024-10-18 08:00:00

分布式系统背压数据库

2023-02-11 00:04:17

分布式系统安全

2022-03-15 09:10:00

分布式训练实践

2023-07-19 08:22:01

分布式系统数据

2017-03-14 08:57:10

CAP定理可用性
点赞
收藏

51CTO技术栈公众号