分享

调用链跟踪 Spring Cloud Sleuth+Zipkin

 码农9527 2021-11-19

 大家都知道分布式系统是非常庞大的,随着功能的增加微服务之间的调用变得越来越多,形成非常复杂的分布式调用链路。一旦某个部分出现问题,我们应该如何快速定位呢?这时就可以使用Spring Cloud Sleuth+Zipkin进行调用链跟踪 。

  业界内对于调用链跟踪的产品有很多,Google 2010年发表了"Dapper - a Large-Scale Distributed Systems Tracing Infrastructure"论文介绍他们的分布式系统跟踪技术,国内具有代表性的的分布式跟踪系统有:

  淘宝-鹰眼-Eagleeye、京东-Hydra、大众点评-cat、新浪-watchman、唯品会-microscope ... ...

  但是从全世界范围来看用的较多的还是Twitter-Zipkin。

  Sleuth

  官网链接:

  https:///projects/spring-cloud

  Spring Cloud Sleuth 为 Spring Cloud 实现了一个分布式跟踪解决方案,大量借鉴了Dapper、Zipkin 和 HTrace。对于大多数用户来说,Sleuth 是不可见的。

  三大核心概念

  服务跟踪理论中存在有跟踪单元的概念,而跟踪单元中涉及三个重要概念:trace、span和annotation。

  trace:跟踪单元是从客户端所发起的请求抵达被跟踪系统的边界开始,到被跟踪系统向客户返回响应为止的过程,这个过程称为一个trace。

  span:每个trace中会调用若干个服务,为了记录调用了哪些服务,以及每次调用所消 耗的时间等信息,在每次调用服务时,埋入一个调用记录,这样两个调用记录之间的区域称为一个span。

  一个Trace由若干个有序的Span组成。

  annotation:用于及时记录事件的实体,表示一个事件发生的时间点。这些实体本身仅仅是为了原理叙述的方便,对于 Spring Cloud Sleuth本身并没有什么必要性。这样的实体有多个,常用的有四个:

  cs:Client Send,表示客户端发送请求的时间点。

  sr,Server Receive,表示服务端接收到请求的时间点。

  ss:Server Send,表示服务端发送响应的时间点。

  cr:Client Receive,表示客户端接收到服务端响应的时间点。

  日志采样

  只要在工程中添加了Spring Cloud Sleuth依赖, 那么工程在启动与运行过程中就会自动生成很多的日志。Sleuth 会为日志信息打上收集标记,需要收集的设置为true,不需要收集的设置为false。这个标记可以通过在代码中添加自己的日志信息看到。

  Sleuth对于这些日志支持抽样收集,即并不是所有日志都会上传到日志收集服务器,日志收集标记就起这个作用。默认的采样比例为: 0.1.即 10%。在配置文件中可以修改该值。

  (若设置为 1 则表示全部采集,即100%。Sleuth默认采用的是水塘抽样算法。)

  使用SpringCloudSleuth生成日志

  复制provider-8081工程,重命名为sleuth-provider-8081.

  导入sleuth依赖

<!--sleuth 依赖-->
<dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-starter-sleuth</artifactId>
</dependency>12345复制代码类型:[java]

  在petsContrller.java中添加日志注解,并在getHandler方法中打印日志。

@Slf4j
@RestController
@RequestMapping("/pets")
public class PetsController {
... ...
    @GetMapping("/get/{id}")
    public Pets getHandler(@PathVariable("id") Integer id) {
        log.info("生产者的处理器方法被调用");
        return petsService.getPetsById(id);
    }
... ...
}123456789101112复制代码类型:[java]

  将配置文件中有关日志的配置全部注释掉!!否则将无法查看演示效果。

  复制consumer-8080工程,重命名为sleuth-consumer-8080.

  同样导入sleuth依赖。

<!--sleuth 依赖-->
<dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-starter-sleuth</artifactId>
</dependency>12345复制代码类型:[java]

  在petsContrller.java中添加日志注解,并在getHandler方法中打印日志。

@Slf4j
@RestController
@RequestMapping("/pets")
public class PetsController {
... ...
    @GetMapping("/get/{id}")
    public Pets getByIdHandler(@PathVariable("id") int id) {
        log.info("消费者的处理器方法被调用");
        // 消费者连接提供者端口号
        String url = SERVICE_PROVIDER + "/pets/get/" + id;
        return restTemplate.getForObject(url, Pets.class);
    }
... ...
}1234567891011121314复制代码类型:[java]

  运行程序,在postman中进行测试访问。

  查看控制台打印结果。

 Zipkin

  官网链接:

  https:///pages/architecture.html

  Zipkin是Twitter开发的一个分布式系统 APM(Application Performance Management,应用程序性能管理)工具,其是基于Google Dapper实现的,用于完成日志的聚合。其与Sleuth联用,可以为用户提供调用链路监控可视化UI界面。

  Zipkin服务器主要由4个核心组件构成:

  Collector:收集组件,它主要用于处理从外部系统发送过来的跟踪信息,将这些信息转换为Zipkin内部处理的Span格式,以支持后续的存储、分析、展示等功能。

  Storage:存储组件,它主要用于处理收集器接收到的跟踪信息,默认会将这些信息存储在内存中,也可以修改存储策略。例如:将跟踪信息存储到数据库中。

  API:外部访问接口组件,外部系统通过这里的API可以实现对系统的监控。

  UI:用于操作界面组件,基于API组件实现的上层应用。通过UI组件用户可以方便而有直观地查询和分析跟踪信息。

  日志发送方式

  在Spring Cloud Sleuth + Zipkin系统中,客户端中一旦发生服务间的调用,就会被配置在微服务中的 Sleuth 的监听器监听,然后生成相应的Trace和Span等日志信息,并发送给Zipkin服务端。发送的方式主要有两种,一种是通过via HTTP报文的方式,也可以通过Kafka、RabbitMQ发送。

  gitee:

  https:///javainfamily/spring-cloud

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多