Spring Cloud之(十九)微服务的链路追踪

十九、微服务的链路追踪

19.1 微服务架构下的问题

在大型系统的微服务化构建中,一个系统会被拆分成许多模块。这些模块负责不同的功能,组合成系统,最终可以提供丰富的功能。在这种架构中,一次请求往往需要涉及到多个服务。互联网应用构建在不同的软件模块集上,这些软件模块,有可能是由不同的团队开发、可能使用不同的编程语言来实现、有可能布在了几千台服务器,横跨多个不同的数据中心,也就意味着这种架构形式也会存在一些问题:

  • 如何快速发现问题?
  • 如何判断故障影响范围?
  • 如何梳理服务依赖以及依赖的合理性?
  • 如何分析链路性能问题以及实时容量规划?

分布式链路追踪(Distributed Tracing),就是将一次分布式请求还原成调用链路,进行日志记录,性能监控并将 一次分布式请求的调用情况集中展示。比如各个服务节点上的耗时、请求具体到达哪台机器上、每个服务节点的请求状态等等。

目前业界比较流行的链路追踪系统如:Twitter的Zipkin,阿里的鹰眼,美团的Mtrace,大众点评的cat等,大部分都是基于google发表的Dapper。Dapper阐述了分布式系统,特别是微服务架构中链路追踪的概念、数据表示、埋点、传递、收集、存储与展示等技术细节。

19.2 Sleuth入门

  • Sleuth概述

    Spring Cloud Sleuth 主要功能就是在分布式系统中提供追踪解决方案,并且兼容支持了 zipkin,你只需要在pom文件中引入相应的依赖即可。

  • 相关概念

    Spring Cloud Sleuth 为Spring Cloud提供了分布式根据的解决方案。它大量借用了Google Dapper的设计。先来了解一下Sleuth中的术语和相关概念。

    Spring Cloud Sleuth采用的是Google的开源项目Dapper的专业术语。

    • Span:基本工作单元,例如,在一个新建的span中发送一个RPC等同于发送一个回应请求给RPC,span通过一个64位ID唯一标识,trace以另一个64位ID表示,span还有其他数据信息,比如摘要、时间戳事件、关键值注释(tags)、span的ID、以及进度ID(通常是IP地址) span在不断的启动和停止,同时记录了时间信息,当你创建了一个span,你必须在未来的某个时刻停止它。
    • Trace:一系列spans组成的一个树状结构,例如,如果你正在跑一个分布式大数据工程,你可能需要创建一个trace。
    • Annotation:用来及时记录一个事件的存在,一些核心annotations用来定义一个请求的开始和结束
    1. cs - Client Sent -客户端发起一个请求,这个annotion描述了这个span的开始;
    2. sr - Server Received -服务端获得请求并准备开始处理它,如果将其sr减去cs时间戳便可得到网络延迟;
    3. ss - Server Sent -注解表明请求处理的完成(当请求返回客户端),如果ss减去sr时间戳便可得到服务端需要的处理请求时间;
    4. cr - Client Received -表明span的结束,客户端成功接收到服务端的回复,如果cr减去cs时间戳便可得到客户端从服务端获取回复的所有所需时间 。

在这里插入图片描述

  • 链路追踪Sleuth入门

    我们仍然延续以前的项目案例,完成入门案例的编写。

  1. 引入依赖

    修改微服务工程引入Sleuth依赖。

    <dependency>
        <groupId>org.springframework.cloud</groupId>
        <artifactId>spring-cloud-starter-sleuth</artifactId>
    </dependency>
    
  2. 修改配置文件

    修改application.yml添加日志级别。

    logging:
      level:
        cn.ebuy: DEBUG
        root: INFO  # 添加日志级别
        org.springframework.web.servlet.DispatcherServlet: DEBUG
        org.springframework.cloud.sleuth: DEBUG
    

    在这里插入图片描述
    当微服务越来越多时,日志文件也会越来越多,这一堆的日志文件查看起来难免有些不方便,这时我们就像想办法将这些日志聚合起来查看。

Zikpin可以将日志聚合,并将进行可视化展示和全文检索。

19.3 Zipkin入门

  • Zipkin概述

    Zipkin 是 Twitter 的一个开源项目,它基于 Google Dapper 实现,它致力于收集服务的定时数据,以解决微服务架构中的延迟问题,包括数据的收集、存储、查找和展现。 我们可以使用它来收集各个服务器上请求链路的跟踪数据,并通过它提供的 REST API 接口来辅助我们查询跟踪数据以实现对分布式系统的监控程序,从而及时地发现系统中出现的延迟升高问题并找出系统性能瓶颈的根源。除了面向开发的 API 接口之外,它也提供了方便的 UI 组件来帮助我们直观的搜索跟踪信息和分析请求链路明细,比如:可以查询某段时间内各用户请求的处理时间等。 Zipkin 提供了可插拔数据存储方式:InMemory、MySql、Cassandra 以及 Elasticsearch。
    在这里插入图片描述
    上图展示了 Zipkin 的基础架构,它主要由 4 个核心组件构成:

    • Collector:收集器组件,它主要用于处理从外部系统发送过来的跟踪信息,将这些信息转换为 Zipkin 内部处理的 Span 格式,以支持后续的存储、分析、展示等功能。
    • Storage:存储组件,它主要对处理收集器接收到的跟踪信息,默认会将这些信息存储在内存中,我们也可以修改此存储策略,通过使用其他存储组件将跟踪信息存储到数据库中。
    • RESTful API:API 组件,它主要用来提供外部访问接口。比如给客户端展示跟踪信息,或是外接系统访问以实现监控等。
    • Web UI:UI 组件,基于 API 组件实现的上层应用。通过 UI 组件用户可以方便而有直观地查询和分析跟踪信息。

    Zipkin 分为两端,一个是 Zipkin 服务端,一个是 Zipkin 客户端,客户端也就是微服务的应用。 客户端会配置服务端的 URL 地址,一旦发生服务间的调用的时候,会被配置在微服务里面的 Sleuth 的监听器监听,并生成相应的 Trace 和 Span 信息发送给服务端。 发送的方式主要有两种,一种是 HTTP 报文的方式,还有一种是消息总线的方式如 RabbitMQ。

    不论哪种方式,我们都需要:

    • 一个 Eureka 服务注册中心,这里我们就用之前的 eureka 项目来当注册中心。
    • 一个 Zipkin 服务端。多个微服务,这些微服务中配置Zipkin 客户端。
  • Zipkin Server的部署和配置

  1. Zipkin Server下载

    从spring boot 2.0开始,官方就不再支持使用自建Zipkin Server的方式进行服务链路追踪,而是直接提供了编译好的 jar 包来给我们使用。可以从官方网站下载先下载Zipkin的web UI,我们这里下载的是zipkin-server-2.12.9-exec.jar

  2. 启动Zipkin Server

    在命令行输入 java -jar zipkin-server-2.12.9-exec.jar启动 Zipkin Server:
    在这里插入图片描述

    小贴士:
    默认Zipkin Server的请求端口为 9411;
    Zipkin Server的启动参数可以通过官方提供的yml配置文件查找;
    在浏览器输入 http://127.0.0.1:9411即可进入到Zipkin Server的管理后台。
    在这里插入图片描述

19.4 客户端Zipkin+Sleuth整合

通过查看日志分析微服务的调用链路并不是一个很直观的方案,结合zipkin可以很直观地显示微服务之间的调用关系。

  • 客户端添加依赖

    <dependency>
        <groupId>org.springframework.cloud</groupId>
        <artifactId>spring-cloud-starter-zipkin</artifactId>
    </dependency>
    
  • 修改客户端配置文件

    spring:
      application:
        name: ebuy-product #服务名称
      zipkin:
        base-url: http://127.0.0.1:9411 #zipkin server的请求地址
        sender:
          type: web # 请求方式,默认以http的方式向zipkin server发送追踪数据
      sleuth:
        sampler:
          probability: 1.0 # 采样的百分比
    

    指定了zipkin server的地址,下面制定需采样的百分比,默认为0.1,即10%,这里配置1,是记录全部的sleuth信息,是为了收集到更多的数据(仅供测试用)。在分布式系统中,过于频繁的采样会影响系统性能,所以这里配置需要采用一个合适的值。

  • 测试

    依次启动每个服务,启动Zipkin Service。通过浏览器发送一次微服务请求,打开Zipkin Service控制台,我们可以根据条件追踪每次请求调用过程:

    在这里插入图片描述
    单击该trace可以看到请求的细节:
    在这里插入图片描述

19.5基于消息中间件收集数据

在默认情况下,Zipkin客户端和Server之间是使用HTTP请求的方式进行通信(即同步的请求方式),在网络波动,Server端异常等情况下可能存在信息收集不及时的问题。Zipkin支持与rabbitMQ整合完成异步消息传输。加了MQ之后,通信过程如下图所示:
在这里插入图片描述

  • RabbitMQ的安装与启动

  • 服务端启动配置

    #RABBIT_ADDRESSES:指定RabbitMQ地址
    #RABBIT_USER:用户名(默认guest)
    #RABBIT_PASSWORD:密码(默认guest)
    java -jar zipkin-server-2.12.9-exec.jar --RABBIT_ADDRESSES=127.0.0.1:5672
    

    启动Zipkin Server之后,打开RabbitMQ的控制台可以看到多了一个Queue(这个zipkin就是我们自动创建的Queue队列):
    在这里插入图片描述

  • 客户端配置

  1. 引入依赖

    导入spring-rabbit依赖,是Spring提供的对rabbit的封装,客户端会根据配置自动的生产消息并发送到目标队列中

    <!-- 基于消息中间件收集数据 -->
    <dependency>
        <groupId>org.springframework.cloud</groupId>
        <artifactId>spring-cloud-starter-sleuth</artifactId>
    </dependency>
    <dependency>
        <groupId>org.springframework.cloud</groupId>
        <artifactId>spring-cloud-starter-zipkin</artifactId>
    </dependency>
    <dependency>
        <groupId>org.springframework.cloud</groupId>
        <artifactId>spring-cloud-sleuth-zipkin</artifactId>
    </dependency>
    <!--导入spring-rabbit依赖,是Spring提供的对rabbit的封装,客户端会根据配置自动的生产消息并发送到目标队列中-->
    <dependency>
        <groupId>org.springframework.amqp</groupId>
        <artifactId>spring-rabbit</artifactId>
    </dependency>
    
  2. 配置消息中间件rabbit mq地址等信息

    spring:
      application:
        name: ebuy-product #服务名称
      zipkin:
        base-url: http://127.0.0.1:9411 #zipkin server的请求地址
        sender:
          type: rabbit  #消息的投递方式为rabbit
      #      type: web # 请求方式,默认以http的方式向zipkin server发送追踪数据
      sleuth:
        sampler:
          probability: 1.0 # 采样的百分比
      rabbitmq:
        host: 127.0.0.1
        port: 5672
        username: guest
        password: guest
        listener:
          simple:
            retry:
              enabled: true
          direct:
            retry:
              enabled: true
    

    修改消息的投递方式,改为rabbit即可;
    添加rabbitqm的相关配置。

  3. 测试

    关闭Zipkin Server,并随意请求连接。打开rabbitmq管理后台可以看到,消息已经推送到rabbitmq。

    在这里插入图片描述

    当Zipkin Server启动时,会自动的从rabbitmq获取消息并消费,展示追踪数据
    可以看到如下效果:

    1. 请求的耗时时间不会出现突然耗时特长的情况
    2. 当ZipkinServer不可用时(比如关闭、网络不通等),追踪信息不会丢失,因为这些信息会保存在Rabbitmq服务器上,直到Zipkin服务器可用时,再从Rabbitmq中取出这段时间的信息
      在这里插入图片描述

19.6 存储跟踪数据

Zipkin Server默认时间追踪数据信息保存到内存,这种方式不适合生产环境。因为一旦Service关闭重启或者服务崩溃,就会导致历史数据消失。Zipkin支持将追踪数据持久化到mysql数据库或者存储到elasticsearch中。这里已mysql为例。

  • 准备数据库

    可以从官网找到Zipkin Server持久mysql的数据库脚本。

  • 配置启动服务端

    #STORAGE_TYPE : 存储类型
    #MYSQL_HOST: mysql主机地址
    #MYSQL_TCP_PORT:mysql端口
    #MYSQL_DB: mysql数据库名称
    #MYSQL_USER:mysql用户名
    #MYSQL_PASS :mysql密码
    java -jar zipkin-server-2.12.9-exec.jar --STORAGE_TYPE=mysql --MYSQL_HOST=127.0.0.1 --MYSQL_TCP_PORT=3306 --MYSQL_DB=zipkin --MYSQL_USER=root --MYSQL_PASS=111111
    

    配置好服务端之后,可以在浏览器请求几次。回到数据库查看会发现数据已经持久化到mysql中:
    在这里插入图片描述

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值