成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

OpenTelemetry 實戰:gRPC 監控的實現原理

開發 前端
具體埋點過程中 OpenTelemetry 提供了許多解耦的 API,方便我們實現埋點所需要的業務邏輯,也會在后續的文章繼續分析 OpenTelemetry 的一些設計原理和核心 API 的使用。

前言

圖片圖片

最近在給 opentelemetry-java-instrumentation 提交了一個 PR,是關于給 gRPC 新增四個 metrics:

  • rpc.client.request.size: 客戶端請求包大小
  • rpc.client.response.size:客戶端收到的響應包大小
  • rpc.server.request.size:服務端收到的請求包大小
  • rpc.server.response.size:服務端響應的請求包大小

這個 PR 的主要目的就是能夠在指標監控中拿到 RPC 請求的包大小,而這里的關鍵就是如何才能拿到這些包的大小。

首先支持的是 gRPC(目前在云原生領域使用的最多),其余的 RPC 理論上也是可以支持的:

圖片圖片

在實現的過程中我也比較好奇 OpenTelemetry 框架是如何給 gRPC 請求創建 span 調用鏈的,如下圖所示:

圖片圖片

圖片圖片

這是一個 gRPC 遠程調用,java-demo 是 gRPC 的客戶端,k8s-combat 是 gRPC 的服務端

在開始之前我們可以根據 OpenTelemetry 的運行原理大概猜測下它的實現過程。

首先我們應用可以創建這些鏈路信息的前提是:使用了 OpenTelemetry 提供的 javaagent,這個 agent 的原理是在運行時使用了 byte-buddy 增強了我們應用的字節碼,在這些字節碼中代理業務邏輯,從而可以在不影響業務的前提下增強我們的代碼(只要就是創建 span、metrics 等數據)

Spring 的一些代理邏輯也是這樣實現的

gRPC 增強原理

而在工程實現上,我們最好是不能對業務代碼進行增強,而是要找到這些框架提供的擴展接口。

拿 gRPC 來說,我們可以使用它所提供的 io.grpc.ClientInterceptor 和 io.grpc.ServerInterceptor 接口來增強代碼。

打開 io.opentelemetry.instrumentation.grpc.v1_6.TracingClientInterceptor 類我們可以看到它就是實現了 io.grpc.ClientInterceptor:

圖片圖片

而其中最關鍵的就是要實現 io.grpc.ClientInterceptor#interceptCall 函數:

@Override  
public <REQUEST, RESPONSE> ClientCall<REQUEST, RESPONSE> interceptCall(  
    MethodDescriptor<REQUEST, RESPONSE> method, CallOptions callOptions, Channel next) {  
  GrpcRequest request = new GrpcRequest(method, null, null, next.authority());  
  Context parentContext = Context.current();  
  if (!instrumenter.shouldStart(parentContext, request)) {  
    return next.newCall(method, callOptions);  
  }  
  Context context = instrumenter.start(parentContext, request);  
  ClientCall<REQUEST, RESPONSE> result;  
  try (Scope ignored = context.makeCurrent()) {  
    try {  
      // call other interceptors  
      result = next.newCall(method, callOptions);  
    } catch (Throwable e) {  
      instrumenter.end(context, request, Status.UNKNOWN, e);  
      throw e;  
    }  }  
  return new TracingClientCall<>(result, parentContext, context, request);  
}

這個接口是 gRPC 提供的攔截器接口,對于 gRPC 客戶端來說就是在發起真正的網絡調用前后會執行的方法。

所以在這個接口中我們就可以實現創建 span 獲取包大小等邏輯。

使用 byte-buddy 增強代碼

不過有一個問題是我們實現的 io.grpc.ClientInterceptor 類需要加入到攔截器中才可以使用:

var managedChannel = ManagedChannelBuilder.forAddress(host, port) .intercept(new TracingClientInterceptor()) // 加入攔截器
.usePlaintext()
.build();

但在 javaagent 中是沒法給業務代碼中加上這樣的代碼的。

此時就需要 byte-buddy 登場了,它可以動態修改字節碼從而實現類似于修改源碼的效果。

在 io.opentelemetry.javaagent.instrumentation.grpc.v1_6.GrpcClientBuilderBuildInstr umentation  類里可以看到 OpenTelemetry 是如何使用 byte-buddy 的。

@Override
  public ElementMatcher<TypeDescription> typeMatcher() {
    return extendsClass(named("io.grpc.ManagedChannelBuilder"))
        .and(declaresField(named("interceptors")));
  }

  @Override
  public void transform(TypeTransformer transformer) {
    transformer.applyAdviceToMethod(
        isMethod().and(named("build")),
        GrpcClientBuilderBuildInstrumentation.class.getName() + "$AddInterceptorAdvice");
  }

  @SuppressWarnings("unused")
  public static class AddInterceptorAdvice {

    @Advice.OnMethodEnter(suppress = Throwable.class)
    public static void addInterceptor(
        @Advice.This ManagedChannelBuilder<?> builder,
        @Advice.FieldValue("interceptors") List<ClientInterceptor> interceptors) {
      VirtualField<ManagedChannelBuilder<?>, Boolean> instrumented =
          VirtualField.find(ManagedChannelBuilder.class, Boolean.class);
      if (!Boolean.TRUE.equals(instrumented.get(builder))) {
        interceptors.add(0, GrpcSingletons.CLIENT_INTERCEPTOR);
        instrumented.set(builder, true);
      }
    }
  }

從這里的源碼可以看出,使用了 byte-buddy 攔截了 io.grpc.ManagedChannelBuilder#intercept(java.util.List<io.grpc.ClientInterceptor>) 函數。

io.opentelemetry.javaagent.extension.matcher.AgentElementMatchers#extendsClass/ isMethod 等函數都是 byte-buddy 庫提供的函數。

而這個函數正好就是我們需要在業務代碼里加入攔截器的地方。

interceptors.add(0, GrpcSingletons.CLIENT_INTERCEPTOR);
GrpcSingletons.CLIENT_INTERCEPTOR = new TracingClientInterceptor(clientInstrumenter, propagators);

通過這行代碼可以手動將 OpenTelemetry 里的 TracingClientInterceptor 加入到攔截器列表中,并且作為第一個攔截器。

而這里的:

extendsClass(named("io.grpc.ManagedChannelBuilder"))
        .and(declaresField(named("interceptors")))

通過函數的名稱也可以看出是為了找到 繼承了io.grpc.ManagedChannelBuilder 類中存在成員變量 interceptors 的類。

transformer.applyAdviceToMethod(  
    isMethod().and(named("build")),  
    GrpcClientBuilderBuildInstrumentation.class.getName() + "$AddInterceptorAdvice");

然后在調用 build 函數后就會進入自定義的 AddInterceptorAdvice 類,從而就可以攔截到添加攔截器的邏輯,然后把自定義的攔截器加入其中。

獲取 span 的 attribute

圖片圖片

我們在 gRPC 的鏈路中還可以看到這個請求的具體屬性,比如:

  • gRPC 服務提供的 IP 端口。
  • 請求的響應碼
  • 請求的 service 和 method
  • 線程等信息。

這些信息在問題排查過程中都是至關重要的。

可以看到這里新的 attribute 主要是分為了三類:

  • net.* 是網絡相關的屬性
  • rpc.* 是和 grpc 相關的屬性
  • thread.* 是線程相關的屬性

所以理論上我們在設計 API 時最好可以將這些不同分組的屬性解耦開,如果是 MQ 相關的可能還有一些 topic 等數據,所以各個屬性之間是互不影響的。

帶著這個思路我們來看看 gRPC 這里是如何實現的。

clientInstrumenterBuilder
 .setSpanStatusExtractor(GrpcSpanStatusExtractor.CLIENT)
 .addAttributesExtractors(additionalExtractors)
        .addAttributesExtractor(RpcClientAttributesExtractor.create(rpcAttributesGetter))
        .addAttributesExtractor(ServerAttributesExtractor.create(netClientAttributesGetter))
        .addAttributesExtractor(NetworkAttributesExtractor.create(netClientAttributesGetter))

OpenTelemetry 會提供一個 io.opentelemetry.instrumentation.api.instrumenter.InstrumenterBuilder#addAttributesExtractor構建器函數,用于存放自定義的屬性解析器。

從這里的源碼可以看出分別傳入了網絡相關、RPC 相關的解析器;正好也就對應了圖中的那些屬性,也滿足了我們剛才提到的解耦特性。

而每一個自定義屬性解析器都需要實現接口 io.opentelemetry.instrumentation.api.instrumenter.AttributesExtractor

public interface AttributesExtractor<REQUEST, RESPONSE> {
}

這里我們以 GrpcRpcAttributesGetter 為例。

enum GrpcRpcAttributesGetter implements RpcAttributesGetter<GrpcRequest> {
  INSTANCE;

  @Override
  public String getSystem(GrpcRequest request) {
    return "grpc";
  }

  @Override
  @Nullable
  public String getService(GrpcRequest request) {
    String fullMethodName = request.getMethod().getFullMethodName();
    int slashIndex = fullMethodName.lastIndexOf('/');
    if (slashIndex == -1) {
      return null;
    }
    return fullMethodName.substring(0, slashIndex);
  }

可以看到 system 是寫死的 grpc,也就是對于到頁面上的 rpc.system 屬性。

而這里的 getService 函數則是拿來獲取 rpc.service 屬性的,可以看到它是通過 gRPC 的method 信息來獲取 service 的。


public interface RpcAttributesGetter<REQUEST> {  
  
  @Nullable  
  String getService(REQUEST request);
}

而這里 REQUEST 其實是一個泛型,在 gRPC 里是 GrpcRequest,在其他 RPC 里這是對應的 RPC 的數據。

這個 GrpcRequest 是在我們自定義的攔截器中創建并傳遞的。圖片

而我這里需要的請求包大小也是在攔截中獲取到數據然后寫入進 GrpcRequest。

圖片圖片

static <T> Long getBodySize(T message) {  
  if (message instanceof MessageLite) {  
    return (long) ((MessageLite) message).getSerializedSize();  
  } else {  
    // Message is not a protobuf message  
    return null;  
  }}

這樣就可以實現不同的 RPC 中獲取自己的 attribute,同時每一組 attribute 也都是隔離的,互相解耦。

自定義 metrics

每個插件自定義 Metrics 的邏輯也是類似的,需要由框架層面提供 API 接口:

public InstrumenterBuilder<REQUEST, RESPONSE> addOperationMetrics(OperationMetrics factory) {  
  operationMetrics.add(requireNonNull(factory, "operationMetrics"));  
  return this;  
}
// 客戶端的 metrics
.addOperationMetrics(RpcClientMetrics.get());

// 服務端的 metrics
.addOperationMetrics(RpcServerMetrics.get());

之后也會在框架層面回調這些自定義的 OperationMetrics:

if (operationListeners.length != 0) {
      // operation listeners run after span start, so that they have access to the current span
      // for capturing exemplars
      long startNanos = getNanos(startTime);
      for (int i = 0; i < operationListeners.length; i++) {
        context = operationListeners[i].onStart(context, attributes, startNanos);
      }
    }

 if (operationListeners.length != 0) {  
   long endNanos = getNanos(endTime);  
   for (int i = operationListeners.length - 1; i >= 0; i--) {  
     operationListeners[i].onEnd(context, attributes, endNanos);  
   }
 }

這其中最關鍵的就是兩個函數 onStart 和 onEnd,分別會在當前這個 span 的開始和結束時進行回調。

所以通常的做法是在 onStart 函數中初始化數據,然后在 onEnd 結束時統計結果,最終可以拿到 metrics 所需要的數據。

以這個 rpc.client.duration 客戶端的請求耗時指標為例:

@Override  
public Context onStart(Context context, Attributes startAttributes, long startNanos) {  
  return context.with(  
      RPC_CLIENT_REQUEST_METRICS_STATE,  
      new AutoValue_RpcClientMetrics_State(startAttributes, startNanos));  
}

@Override  
public void onEnd(Context context, Attributes endAttributes, long endNanos) {  
  State state = context.get(RPC_CLIENT_REQUEST_METRICS_STATE);
 Attributes attributes = state.startAttributes().toBuilder().putAll(endAttributes).build();  
 clientDurationHistogram.record(  
     (endNanos - state.startTimeNanos()) / NANOS_PER_MS, attributes, context);
}

在開始時記錄下當前的時間,結束時獲取當前時間和結束時間的差值正好就是這個 span 的執行時間,也就是 rpc client 的處理時間。

在 OpenTelemetry 中絕大多數的請求時間都是這么記錄的。

Golang 增強

而在 Golang 中因為沒有 byte-buddy 這種魔法庫的存在,不可以直接修改源碼,所以通常的做法還是得硬編碼才行。

還是以 gRPC 為例,我們在創建 gRPC server 時就得指定一個 OpenTelemetry 提供的函數。

s := grpc.NewServer(  
    grpc.StatsHandler(otelgrpc.NewServerHandler()),  
)

圖片

在這個 SDK 中也會實現剛才在 Java 里類似的邏輯,限于篇幅具體邏輯就不細講了。

總結

以上就是 gRPC 在 OpenTelemetry 中的具體實現,主要就是在找到需要增強框架是否有提供擴展的接口,如果有就直接使用該接口進行埋點。

如果沒有那就需要查看源碼,找到核心邏輯,再使用 byte-buddy 進行埋點。

圖片圖片

比如 Pulsar 并沒有在客戶端提供一些擴展接口,只能找到它的核心函數進行埋點。

而在具體埋點過程中 OpenTelemetry 提供了許多解耦的 API,方便我們實現埋點所需要的業務邏輯,也會在后續的文章繼續分析 OpenTelemetry 的一些設計原理和核心 API 的使用。

這部分 API 的設計我覺得是 OpenTelemetry 中最值得學習的地方。

參考鏈接:

  • https://bytebuddy.net/#/
  • https://opentelemetry.io/docs/specs/semconv/rpc/rpc-metrics/#metric-rpcserverrequestsize
責任編輯:武曉燕 來源: crossoverJie
相關推薦

2024-08-28 08:09:13

contextmetrics類型

2024-08-21 08:09:17

2024-04-08 08:09:10

埋點收集數據StartRocks數據存儲

2023-09-06 07:17:57

2024-06-27 08:41:21

2015-09-15 15:41:09

監控寶Docker

2024-06-14 08:19:45

2024-04-16 08:09:36

JavapulsarAPI

2015-12-11 11:39:15

.net代碼

2015-12-11 11:49:19

java

2024-05-27 08:09:29

2021-09-18 15:05:58

MySQL數據庫監控

2021-09-26 10:20:06

開發Golang代碼

2015-12-11 14:02:02

php應用

2025-02-17 07:45:29

2023-09-05 07:28:02

Java自動埋點

2022-11-08 00:00:00

監控系統Prometheus

2023-12-25 11:18:12

OpenTeleme應用日志Loki

2024-06-07 07:41:03

2015-10-12 17:08:14

云智慧
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品一卡二卡三卡 | 天堂久久久久久久 | 国产欧美一区二区三区国产幕精品 | 国产精品毛片无码 | 日韩有码一区 | 夜久久| 蜜桃一区二区三区 | 日韩在线免费 | 日韩精品一区在线 | 久久国产精品一区二区 | 亚洲欧美精品在线 | 一区亚洲| 国产在线精品一区二区三区 | 国产精品99久久久久久动医院 | 亚洲先锋影音 | xnxx 日本免费| 国产成人精品一区二区 | 超碰在线人人干 | 国产精品日产欧美久久久久 | 国产精品免费视频一区 | 亚洲免费在线播放 | 国产情侣激情 | 99久久久无码国产精品 | 久久99精品久久久久久 | 日韩在线一区二区 | 中文一区| 免费看91| 中文字幕一区在线观看视频 | 日韩欧美三级电影 | av色站| www.婷婷 | 国产精品免费在线 | 欧美日韩一区二区三区不卡视频 | 精品视频一区二区 | 欧美激情视频一区二区三区免费 | 中文字幕国产一区 | 久久久久国产一区二区三区四区 | 久久久久久亚洲精品 | 成人午夜网站 | 一级a爱片久久毛片 | 中文在线www |