> 由于容器的特性,在容器重新创建后日志会废弃掉,如何通过持久化和中心化的处理容器日志变成一个棘手的问题,如何通过 Elastic Stack 进行一站式的数据采集,数据清洗,数据落地,数据可视化,让数据发挥真正的价值呢?
#### 架构设计
涉及到 Elastic Stack 中 Filebeat 是用于采集 Kubernetes Pod 相关的日志,Elasticsearch 是用于对于数据落地存储和搜索的引擎, Kibana 是用于对数据可视化的工具。
在 Docker 中容器的日志是存储在/var/lib/docker/containers/ 目录下的,目录下的每一个文件夹为容器ID,容器ID目录下的 log 类型文件则为容器的日志文件。
而 Kubernetes 针对其采集时使用的是 DaemonSet 的方式,在每一个 Node 节点上都启动一个 Filebeat 针对当前的节点进行容器日志的收集。
#### 实施方法
创建 DaemonSet 类型的控制器去在每一个 Node 节点上启动 Pods,Pods中放入 Filebeat 的容器并且映射的宿主机上的容器日志目录进行日志的采集。
apiVersion: apps/v1
kind: DaemonSet
metadata:
labels:
app: filebeat
name: filebeat-daemonset
spec:
selector:
matchLabels:
app: filebeat
template:
metadata:
labels:
app: filebeat
spec:
containers:
- name: filebeat-daemonset
image: 'elastic/filebeat:7.9.2'
securityContext:
runAsUser: 0
volumeMounts:
- mountPath: /usr/share/filebeat/filebeat.yml
name: volume-configmap
subPath: filebeat.yml
- mountPath: /var/lib/docker/containers
name: volume-containerlog
volumes:
- name: volume-configmap
configMap:
defaultMode: 420
name: filebeat-configmap
- name: volume-containerlog
hostPath:
path: /var/lib/docker/containers
---
apiVersion: v1
data:
filebeat.yml: |-
filebeat.config:
modules:
path: ${path.config}/modules.d/*.yml
reload.enabled: false
processors:
- add_cloud_metadata: ~
- add_docker_metadata: ~
filebeat.inputs:
- type: docker
containers:
path: "/var/lib/docker/containers"
json.keys_under_root: true
ids:
- "*"
output.elasticsearch:
hosts: ["elasticsearch-service:9200"]
username: "elastic"
password: "xxx"
setup.kibana:
host: "kibana-service:5601"
kind: ConfigMap
metadata:
name: filebeat-configmap
进入 Pods 修改配置
docker exec -it filebeat-daemonset-xxx /bin/bash
设置 Filebeat 创建 Kibana上的 Index Pattern 和 Dashboard
filebeat setup
#### 可视化展示
通过 Kibana 中的 Discover 功能