technology-note/java/springcloud实战/6.springCloud之Spring Cloud Sleuth分布式跟踪.md
fanxb d8f3281cea Revert "删除历史已被发布数据"
This reverts commit 4d564918e11d3b7d5cf31ae6aee3befe2f559b62.
2019-04-16 09:56:12 +08:00

62 lines
3.7 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

---
id: '2019-02-03-19-19'
date: '2019/02/03 19:19'
title: 'springCloud学习6(Spring Cloud Sleuth 分布式跟踪)'
tags: ['spring-boot', 'spring-cloud', 'spring-cloud-sleuth']
categories:
- 'java'
- 'springCloud实战'
---
**本篇原创发布于:**[FleyX 的个人博客](http://tapme.top/blog/detail/2019-01-03-19-19)
# 前言
  在第四篇和第五篇中提到一个叫**关联id**的东西,用这个东西来将所有请求串起来,用来清晰的记录调用过程,以便以微服务的问题调试。
  微服务虽然能够将单体软件系统分解为更小的、更易于管理的小系统。但是这种特性是需要付出代价的。其中之一就是----调试困难。所以需要有一种办法能够将所有服务产生的消息聚合起来,方便的获取某一次用户请求的全部日志信息。本篇只解决将请求串起来这个问题,日志聚合需要对应的日志平台配合,这里不做讨论(其实就是将日志全部手机放到一个地方(比如es),再进行查询)。
<!-- more -->
(PS写这篇的时候突然发现前面那种实现关联id方法是错误的学习《spring微服务实战》过程中看到了不少错误单大都不是很重要的唯独关联id的那部分问题挺大。书上的实现是在每个服务中增加一个过滤器提取入站请求中的关联id然后存到ThreadLocal中然后给服务调用类Ribbon加一个过滤器用于从ThreadLocal中提取出关联id然后加入到请求的header中。这里的问题是前面的过滤器所在的线程和后面服务调用的线程不是同一个线程也就无法用ThreadLocal来进行数据保存。在Feign请求的过程中是获取不到保存的值的)
# 集成Spring Cloud Sleuth
## 什么是Spring Cloud Sleuth
&emsp;&emsp;简单来说Spring Cloud Sleuth就是为开发人员实现了前面关联ID尝试做的事情而且做的更好。主要有一下几个功能
- 透明地创建并注入一个关联ID到服务调用中如果不存在关联ID
- 管理`关联ID`到出站服务的传播将关联iD自动添加啊到出站调用中
-`关联信息`添加到Spring的MDC日志记录以便生成的`关联ID`由Spring Boot默认的SL4J和Logback实现自动记录
## 怎么用
&emsp;&emsp;用法很简单,只需在要用的服务中引入`Spring Cloud Sleuth`依赖即可,代码如下:
```xml
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-sleuth</artifactId>
</dependency>
```
然后就会发现引入该依赖的服务日志打印语句中都会多一些数据,结构如下:
```
2019-02-28 11:03:02 [ERROR] [server Name,trace ID,span ID,isSendData]...
```
其中各项意义如下:
- server Name默认情况下使用`spring.applicataion.name`
- trace ID 跟踪ID相当于关联ID。整个微服务调用过程的唯一编号。
- span ID: 跨度ID。表示某个服务过程中的唯一ID,比如在服务A中打印的日志跨度ID都是一样的。
- isSendData: 是否发送数据给Zipkin。可配置是否将数据发给Zipkin,毕竟不是所有日志打印都是要收集的。
&emsp;&emsp;使用过于简单,因此不提供代码,自己引入依赖就能看到效果,无需任何配置。
# 尾声
&emsp;&emsp;微服务的分布式跟踪是一个很复杂的过程,上面所说的仅仅只是实现了给日志输入打上标记,让微服务调用能够串在一起。之后还有一个很重要的过程是日志收集和分析。后面如果有时间,可能会继续更新完成日志聚合。
_2019,Fighting!_
**本篇原创发布于:**[FleyX 的个人博客](http://tapme.top/blog/detail/2019-02-03-19-19)