Spring Cloud构建微服务架构:分布式服务跟踪(整合zipkin)【Dalston版】

通过上一篇《分布式服务跟踪(整合logstash)》,我们虽然已经能够利用ELK平台提供的收集、存储、搜索等强大功能,对跟踪信息的管理和使用已经变得非常便利。但是,在ELK平台中的数据分析维度缺少对请求链路中各阶段时间延迟的关注,很多时候我们追溯请求链路的一个原因是为了找出整个调用链路中出现延迟过高的瓶颈源,亦或是为了实现对分布式系统做延迟监控等与时间消耗相关的需求,这时候类似ELK这样的日志分析系统就显得有些乏力了。对于这样的问题,我们就可以引入Zipkin来得以轻松解决。

Zipkin简介

Zipkin是Twitter的一个开源项目,它基于Google Dapper实现。我们可以使用它来收集各个服务器上请求链路的跟踪数据,并通过它提供的REST API接口来辅助我们查询跟踪数据以实现对分布式系统的监控程序,从而及时地发现系统中出现的延迟升高问题并找出系统性能瓶颈的根源。除了面向开发的API接口之外,它也提供了方便的UI组件来帮助我们直观的搜索跟踪信息和分析请求链路明细,比如:可以查询某段时间内各用户请求的处理时间等。

上图展示了Zipkin的基础架构,它主要有4个核心组件构成:

  • Collector:收集器组件,它主要用于处理从外部系统发送过来的跟踪信息,将这些信息转换为Zipkin内部处理的Span格式,以支持后续的存储、分析、展示等功能。

  • Storage:存储组件,它主要对处理收集器接收到的跟踪信息,默认会将这些信息存储在内存中,我们也可以修改此存储策略,通过使用其他存储组件将跟踪信息存储到数据库中。

  • RESTful API:API组件,它主要用来提供外部访问接口。比如给客户端展示跟踪信息,或是外接系统访问以实现监控等。

  • Web UI:UI组件,基于API组件实现的上层应用。通过UI组件用户可以方便而有直观地查询和分析跟踪信息。

HTTP收集

在Spring Cloud Sleuth中对Zipkin的整合进行了自动化配置的封装,所以我们可以很轻松的引入和使用它,下面我们来详细介绍一下Sleuth与Zipkin的基础整合过程。主要分为两步:

第一步:搭建Zipkin Server

  • 创建一个基础的Spring Boot应用,命名为 zipkin-server,并在 pom.xml中引入Zipkin Server的相关依赖,具体如下:

  1. <parent>

  2.  <groupId>org.springframework.boot</groupId>

  3.  <artifactId>spring-boot-starter-parent</artifactId>

  4.  <version>1.3.7.RELEASE</version>

  5.  <relativePath/>

  6. </parent>

  7. <dependencies>

  8.  <dependency>

  9.      <groupId>io.zipkin.java</groupId>

  10.      <artifactId>zipkin-server</artifactId>

  11.  </dependency>

  12.  <dependency>

  13.      <groupId>io.zipkin.java</groupId>

  14.      <artifactId>zipkin-autoconfigure-ui</artifactId>

  15.  </dependency>

  16. </dependencies>

  17. <dependencyManagement>

  18.  <dependencies>

  19.      <dependency>

  20.          <groupId>org.springframework.cloud</groupId>

  21.          <artifactId>spring-cloud-dependencies</artifactId>

  22.          <version>Brixton.SR5</version>

  23.          <type>pom</type>

  24.          <scope>import</scope>

  25.      </dependency>

  26.  </dependencies>

  27. </dependencyManagement>

  • 创建应用主类 ZipkinApplication,使用 @EnableZipkinServer注解来启动Zipkin Server,具体如下:

  •   
      
    1. @EnableZipkinServer

    2. @SpringBootApplication

    3. public class ZipkinApplication {

    4.  public static void main(String[] args) {

    5.      SpringApplication.run(ZipkinApplication.class, args);

    6.  }

    7. }

    • 在 application.properties中做一些简单配置,比如:设置服务端口号为 9411(客户端整合时候,自动化配置会连接 9411端口,所以在服务端设置了端口为 9411的话,客户端可以省去这个配置)。

      
      
    1. spring.application.name=zipkin-server

    2. server.port=9411

    创建完上述工程之后,我们将其启动起来,并访问 http://localhost:9411/,我们可以看到如下图所示的Zipkin管理页面:

    第二步:为应用引入和配置Zipkin服务

    在完成了Zipkin Server的搭建之后,我们还需要对应用做一些配置,以实现将跟踪信息输出到Zipkin Server。我们以之前实现的 trace-1trace-2为例,对它们做以下改造内容:

    • 在 trace-1和 trace-2的 pom.xml中引入 spring-cloud-sleuth-zipkin依赖,具体如下所示。

      
      
    1. <dependency>

    2.  <groupId>org.springframework.cloud</groupId>

    3.  <artifactId>spring-cloud-sleuth-zipkin</artifactId>

    4. </dependency>

    • 在 trace-1和 trace-2的 application.properties中增加Zipkin Server的配置信息,具体如下所示(如果在 zip-server应用中,我们将其端口设置为 9411,并且均在本地调试的话,该参数也可以不配置,因为默认值就是 http://localhost:9411)。

      
      
    1. spring.zipkin.base-url=http://localhost:9411

    测试与分析

    到这里我们已经完成了接入Zipkin Server的所有基本工作,我们可以继续将 eureka-servertrace-1trace-2启动起来,然后我们做一些测试实验,以对它的运行机制有一些初步的理解。

    我们先来向 trace-1的接口发送几个请求: http://localhost:9101/trace-1,当我们在日志中出现跟踪信息的最后一个值为 true的时候,说明该跟踪信息会输出给Zipkin Server,所以此时我们可以去Zipkin Server的管理页面中选择合适的查询条件后,点击 FindTraces,就可以查询出刚才在日志中出现的跟踪信息了(也可以根据日志中的Trace ID,在页面的右上角输入框中来搜索),具体如下页面所示:

    点击下方 trace-1端点的跟踪信息,我们还可以得到Sleuth收集到的跟踪到详细信息,其中包括了我们关注的请求时间消耗等。

    点击导航栏中的 Dependencies菜单,我们还可以查看Zipkin Server根据跟踪信息分析生成的系统请求链路依赖关系图:

    消息中间件收集

    Spring Cloud Sleuth在整合Zipkin时,不仅实现了以HTTP的方式收集跟踪信息,还实现了通过消息中间件来对跟踪信息进行异步收集的封装。通过结合Spring Cloud Stream,我们可以非常轻松的让应用客户端将跟踪信息输出到消息中间件上,同时Zipkin服务端从消息中间件上异步地消费这些跟踪信息。

    接下来,我们基于之前实现的 trace-1trace-2应用以及 zipkin-server服务端做一些改造,以实现通过消息中间件来收集跟踪信息。改造的内容非常简单,只需要我们做项目依赖和配置文件做一些调整就能马上实现,下面我们分别对客户端和服务端的改造内容做详细说明:

    第一步:修改客户端 trace-1trace-2

    • 为了让 trace-1和 trace-2在产生跟踪信息之后,能够将抽样记录输出到消息中间件中,我们除了需要之前引入的 spring-cloud-starter-sleuth依赖之外,还需要引入zipkin对Spring Cloud Stream的扩展依赖 spring-cloud-sleuth-stream以及基于Spring Cloud Stream实现的消息中间件绑定器依赖,以使用RabbitMQ为例,我们可以加入如下依赖:

      
      
    1. <dependency>

    2.    <groupId>org.springframework.cloud</groupId>

    3.    <artifactId>spring-cloud-sleuth-stream</artifactId>

    4. </dependency>

    5. <dependency>

    6.    <groupId>org.springframework.cloud</groupId>

    7.    <artifactId>spring-cloud-starter-stream-rabbit</artifactId>

    8. </dependency>

    • 在 application.properties配置中去掉HTTP方式实现时使用的 spring.zipkin.base-url参数,并根据实际部署情况,增加消息中间件的相关配置,比如下面这些关于RabbitMQ的配置信息:

      
      
    1. spring.rabbitmq.host=localhost

    2. spring.rabbitmq.port=5672

    3. spring.rabbitmq.username=springcloud

    4. spring.rabbitmq.password=123456

    第二步:修改 zipkin-server服务端

    为了让 zipkin-server服务端能够从消息中间件中获取跟踪信息,我们只需要在 pom.xml中引入针对消息中间件收集封装的服务端依赖 spring-cloud-sleuth-zipkin-stream,同时为了支持具体使用的消息中间件,我们还需要引入针对消息中间件的绑定器实现,比如以使用RabbitMQ为例,我们可以在依赖中增加如下内容:

      
      
    1. <dependency>

    2.    <groupId>org.springframework.cloud</groupId>

    3.    <artifactId>spring-cloud-sleuth-zipkin-stream</artifactId>

    4. </dependency>

    5. <dependency>

    6.    <groupId>org.springframework.cloud</groupId>

    7.    <artifactId>spring-cloud-starter-stream-rabbit</artifactId>

    8. </dependency>

    9. <dependency>

    10.    <groupId>io.zipkin.java</groupId>

    11.    <artifactId>zipkin-autoconfigure-ui</artifactId>

    12. </dependency>

    其中, spring-cloud-sleuth-zipkin-stream依赖是实现从消息中间件收集跟踪信息的核心封装,其中包含了用于整合消息中间件的核心依赖、zipkin服务端的核心依赖、以及一些其他通常会被使用的依赖(比如:用于扩展数据存储的依赖、用于支持测试的依赖等)。但是,需要注意的是这个包里并没有引入 zipkin的前端依赖 zipkin-autoconfigure-ui,为了方便使用,我们在这里也引用了它。

    测试与分析

    在完成了上述改造内容之后,我们继续将 eureka-servertrace-1trace-2zipkin-server都启动起来,同时确保RabbitMQ也处于运行状态。此时,我们可以在RabbitMQ的控制页面中看到一个名为 sleuth的交换器,它就是zipkin的消息中间件收集器实现使用的默认主题。

    最后,我们使用之前的验证方法,通过向 trace-1的接口发送几个请求: http://localhost:9101/trace-1,当有被抽样收集的跟踪信息时(调试时我们可以设置 AlwaysSampler抽样机制来让每个跟踪信息都被收集),我们可以在RabbitMQ的控制页面中发现有消息被发送到了 sleuth交换器中,同时我们再到zipkin服务端的Web页面中也能够搜索到相应的跟踪信息,那么我们使用消息中间件来收集跟踪信息的任务到这里就完成了。

    完整示例:

    读者可以根据喜好选择下面的两个仓库中查看 trace-1trace-2两个项目:

    • Github:https://github.com/dyc87112/SpringCloud-Learning/

    • Gitee:https://gitee.com/didispace/SpringCloud-Learning/

    如果您对这些感兴趣,欢迎star、follow、收藏、转发给予支持!

    本文内容部分节选自我的《Spring Cloud微服务实战》,但对依赖的Spring Boot和Spring Cloud版本做了升级。

    更多内容,请点击《Spring Cloud微服务架构汇总

    推荐阅读

    Spring Cloud构建微服务架构:分布式服务跟踪(跟踪原理)

    Spring Cloud构建微服务架构:分布式服务跟踪(入门)

    Spring Cloud Gateway真的有那么差吗?

    Netflix 的上线工具 Spinnaker

    Dubbo将积极适配Spring Cloud生态

    浅谈微服务基建的逻辑

    Service Mesh:下一代微服务

    微服务(Microservices)【翻译】

    那些没说出口的研发之痛,做与不做微服务的几大理由


    长按指纹

    一键关注


    点击 “阅读原文” 看看本号其他精彩内容

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值