Zipkin是Twitter的一个开源项目,是一个致力于收集Twitter所有服务的监控数据的分布式跟踪系统,它提供了收集数据,和查询数据两大接口服务。
部署Zipkin环境的操作记录:
部署Zipkin,比较麻烦的是前期环境的准备,只有先把前期环境安装好了,后面的部署就顺利多了。(部署机ip为192.168.1.102)
一、环境准备:
-------------------------------------------------------------------------------------------
特别注意:现在安装zipkin,必须使用java8(即java-1.8.0-openjdk)
[root@wutao2 ~]# java -version
openjdk version "1.8.0_111"
OpenJDK Runtime Environment (build 1.8.0_111-b15)
OpenJDK 64-Bit Server VM (build 25.111-b15, mixed mode)
最后别忘了添加jdk的环境变量
[root@dev ~]# vim /etc/profile
......
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk.x86_64
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
[root@dev ~]# source /etc/profile
--------------------------------------------------------------------------------------------
2)npm环境安装
随同NodeJS一起安装的包管理工具
这个国内目前知道的只有淘宝有。
[root@dev ~]# alias npm="npm --registry=https://registry.npm.taobao.org --disturl=https://npm.taobao.org/mirrors/node"
3)node环境安装(版本:V5.5.0)
[root@dev ~]# yum install npm -y
[root@dev ~]# git clone https://github.com/creationix/nvm.git /usr/local/nvm
[root@dev ~]# source /usr/local/nvm/install.sh
[root@dev ~]# nvm --version
[root@dev ~]# nvm install v5.5.0
-----------------------------------------------------------------
出现如下报错:
[root@dev nvm]# nvm install v5.5.0
-bash: nvm_has: command not found
nvm needs curl or wget to proceed.
解决办法:
在当前用户家目录的.bash_profile文件中添加如下内容
[root@dev ~]# cat /root/.bash_profile
.....
export NVM_DIR="/usr/local/nvm"
[ -s "$NVM_DIR/nvm.sh" ] && . "$NVM_DIR/nvm.sh" # This loads nvm
[root@dev ~]# source /root/.bash_profile
然后再次执行下面命令就不会出现上面报错了:
[root@dev ~]# wget -O zipkin.jar 'https://search.maven.org/remote_content?g=io.zipkin.java&a=zipkin-server&v=LATEST&c=exec'
其为一个spring boot 工程,直接运行jar
[root@dev ~]# nohup java -jar zipkin.jar & //回车,放到后台去执行
[root@dev ~]# lsof -i:9411
COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
java 8440 root 33u IPv6 64454 0t0 TCP *:9411 (LISTEN)
zipkin访问:
由于zipkin部署机192.168.1.102是一台虚拟机,没有外网ip。
所以通过它的宿主机(113.10.77.99/192.168.1.17)的NAT转发进行访问。
即访问宿主机的9411端口转发到192.168.1.102的9411端口
在宿主机192.168.1.17上的操作:(由于是单机,所以是192.168.1.102/32)
[root@linux-node2 ~]# iptables -t nat -A PREROUTING -p tcp -m tcp --dport 9411 -j DNAT --to-destination 192.168.1.102:9411
[root@linux-node2 ~]# iptables -t nat -A POSTROUTING -d 192.168.1.102/32 -p tcp -m tcp --sport 9411 -j SNAT --to-source 192.168.1.17
[root@linux-node2 ~]# iptables -t filter -A INPUT -p tcp -m state --state NEW -m tcp --dport 9411 -j ACCEPT
[root@linux-node2 ~]# service iptables save
[root@linux-node2 ~]# service iptables restart
可以查看iptables防火墙配置文件:
[root@linux-node2 ~]# cat /etc/sysconfig/iptables
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
<code># Generated by iptables-save v1.4.21 on Wed Dec 7 20:10:51 2016</code>
<code>*raw</code>
<code>:PREROUTING ACCEPT [5603:1412953]</code>
<code>:OUTPUT ACCEPT [5269:1369985]</code>
<code>COMMIT</code>
<code># Completed on Wed Dec 7 20:10:51 2016</code>
<code>*mangle</code>
<code>:INPUT ACCEPT [5379:1395017]</code>
<code>:FORWARD ACCEPT [144:21528]</code>
<code>:POSTROUTING ACCEPT [5413:1391513]</code>
<code>*nat</code>
<code>:PREROUTING ACCEPT [62:4444]</code>
<code>:INPUT ACCEPT [14:760]</code>
<code>:OUTPUT ACCEPT [1:60]</code>
<code>:POSTROUTING ACCEPT [1:60]</code>
<code>-A PREROUTING -p tcp -m tcp --dport 9411 -j DNAT --to-destination 192.168.1.102:9411</code>
<code>-A POSTROUTING -d 192.168.1.102</code><code>/32</code> <code>-p tcp -m tcp --sport 9411 -j SNAT --to-</code><code>source</code> <code>192.168.1.17</code>
<code>*filter</code>
<code>:INPUT ACCEPT [7:3550]</code>
<code>:FORWARD ACCEPT [17:3786]</code>
<code>:OUTPUT ACCEPT [45:5785]</code>
<code>-A INPUT -m state --state RELATED,ESTABLISHED -j ACCEPT</code>
<code>-A INPUT -p icmp -j ACCEPT</code>
<code>-A INPUT -i lo -j ACCEPT</code>
<code>-A INPUT -p tcp -m state --state NEW -m tcp --dport 22 -j ACCEPT</code>
<code>-A INPUT -p tcp -m state --state NEW -m tcp --dport 9411 -j ACCEPT</code>
然后在谷歌浏览器里访问http://113.10.77.99:9411/,即可看到zipkin的web页面了
三、Zipkin功能解说
zipkin作用
全链路追踪工具(根据依赖关系)
查看每个接口、每个service的执行速度(定位问题发生点或者寻找性能瓶颈)
zipkin工作原理
创造一些追踪标识符(tracingId,spanId,parentId),最终将一个request的流程树构建出来
zipkin架构
其中:
Collector接收各service传输的数据;
Cassandra作为Storage的一种,也可以是mysql等,默认存储在内存中,配置cassandra可以参考这里;
Query负责查询Storage中存储的数据,提供简单的JSON API获取数据,主要提供给web UI使用;
Web 提供简单的web界面;
zipkin分布式跟踪系统的目的:
zipkin为分布式链路调用监控系统,聚合各业务系统调用延迟数据,达到链路调用监控跟踪;
zipkin通过采集跟踪数据可以帮助开发者深入了解在分布式系统中某一个特定的请求时如何执行的;
假如我们现在有一个用户请求超时,我们就可以将这个超时的请求调用链展示在UI当中;我们可以很快度的定位到导致响应很慢的服务究竟是什么。如果对这个服务细节也很很清晰,那么我们还可以定位是服务中的哪个问题导致超时;
zipkin系统让开发者可通过一个Web前端轻松的收集和分析数据,例如用户每次请求服务的处理时间等,可方便的监测系统中存在的瓶颈。
例如下图:
在复杂的调用链路中假设存在一条调用链路响应缓慢,如何定位其中延迟高的服务呢?
1)日志:通过分析调用链路上的每个服务日志得到结果
2)zipkin:使用zipkin的web UI可以一眼看出延迟高的服务
各业务系统在彼此调用时,将特定的跟踪消息传递至zipkin,zipkin在收集到跟踪信息后将其聚合处理、存储、展示等,用户可通过web UI方便
获得网络延迟、调用链路、系统依赖等等。
transport作用:收集被trace的services的spans,并将它们转化为zipkin common Span,之后把这些Spans传递的存储层。
有三种主要的transport:
HTTP(默认)
通过http headers来传递追踪信息
header中的key
X-B3-TraceId: 64 encoded bits(id被encode为hex Strings)
X-B3-SpanId: 64 encoded bits
X-B3-ParentSpanId: 64 encoded bits
X-B3-Sampled: Boolean (either “1” or “0”)(下面的调用是否进行采样)
X-B3-Flags: a Long
Scribe
Kafka
zipkin基础架构(4个组件:collector、storage、search、webUI)
collector
作用:zipkin collector会对一个到来的被trace的数据(span)进行验证、存储并设置索引。
storage
in-memory(默认)
仅用于测试,因为采集数据不会持久化
默认使用这个存储,若要使用其他存储,查看:
JDBC (mysql)
如果采集数据量很大的话,查询速度会比较慢
Cassandra
zipkin最初始内建的存储(扩展性好、schema灵活)
This store requires a spark job to aggregate dependency links
Elasticsearch
被设计用于大规模
存储形式为json
search
webUI
zipkin核心数据结构
Annotation(用途:用于定位一个request的开始和结束,cs/sr/ss/cr含有额外的信息,比如说时间点)
cs:Client Start,表示客户端发起请求
一个span的开始
sr:Server Receive,表示服务端收到请求
ss:Server Send,表示服务端完成处理,并将结果发送给客户端
cr:Client Received,表示客户端获取到服务端返回信息
一个span的结束
当这个annotation被记录了,这个RPC也被认为完成了
BinaryAnnotation(用途:提供一些额外信息,一般已key-value对出现)
Span:一个请求(包含一组Annotation和BinaryAnnotation);它是基本工作单元,一次链路调用(可以是RPC,DB等没有特定的限制)创建一个span,通过一个64位ID标识它。
span通过还有其他的数据,例如描述信息,时间戳,key-value对的(Annotation)tag信息,parent-id等,其中parent-id
可以表示span调用链路来源,通俗的理解span就是一次请求信息
Trace:类似于树结构的Span集合,表示一条调用链路,存在唯一标识
Traces are built by collecting all Spans that share a traceId
通过traceId、spanId和parentId,被收集到的span会汇聚成一个tree,从而提供出一个request的整体流程。(这也是zipkin的工作原理)
注意:时间点计算
sr-cs:网络延迟
ss-sr:逻辑处理时间
cr-cs:整个流程时间
Trace identifiers
含义:通过下边3个Id,对数据进行重组
三个Id(64位 long型数据)
TraceId
The overall ID of the trace.
Every span in a trace will share this ID.
SpanId
The ID for a particular span.
This may or may not be the same as the trace id.
ParentId
This is an optional ID that will only be present on child spans.
That is the span without a parent id is considered the root of the trace.
zipkin工作流程图(完整的调用链路)
上图说明:X和A可以相等
上图表示一请求链路,一条链路通过Trace Id唯一标识,Span标识发起的请求信息,各span通过parent id关联起来;
父子span关系:
说明:parentId==null,表示该span就是root span。
整个链路的依赖关系如下:
完成链路调用的记录后,如何来计算调用的延迟呢,这就需要利用<code>Annotation</code>信息:
总结两点:
1)使用zipkin,必须使用java8
2)在生产环境,不会对每个请求都进行采样追踪(降低trace对整个服务的性能损耗)
***************当你发现自己的才华撑不起野心时,就请安静下来学习吧***************
本文转自散尽浮华博客园博客,原文链接:http://www.cnblogs.com/kevingrace/p/5570258.html,如需转载请自行联系原作者