最近在容器服务的官方镜像中,新增了loghub-shipper的镜像,使用该镜像,可以订阅日志服务中的日志库,以秒级的延时将日志数据从日志服务中读出并转换成结构化数据存储在表格存储中,以满足实时在线服务的精确查询需求。
假设日志数据格式如下:
···
将其写入到表格存储中主键为”ip”、”time”的数据表中,其格式如下:
ip
time
source
status
user-agent
url
10.200.98.220
26/jan/2016:19:54:02 +0800
10.170.148.237
200
aliyun-sdk-java
post /putdata…
在表格存储中,很容易对某个ip根据时间对历史数据进行精确的检索。
日志数据结构化到表格存储之后,可以充分利用表格存储的高并发、低延时、按量计费的特点提供精确查询的在线服务:
电商、信息类网站的最近浏览记录展示。
推荐引擎的数据源,基于用户历史行为习惯进行分析。
实时推荐计算,根据用户最近浏览实时调整推荐策略。
对某个时间点的日志信息的精确查询,比如某台出故障的机器最近24小时的运行情况。
应用程序api基于时间段的延时统计、分析。
在表格存储上建好两张表:数据表和状态表。
数据表用来存储从日志服务中同步过来的日志数据。教程里我们假设这张表有三个主键列,分别是
rename,类型是 string。
trans-pkey,类型是 integer。
keep,类型是 string。
状态表用来存储每个日志服务project以及各个shard上日志数据的同步进度,该表的主键需要按照如下方式设置。 您的服务于多个 project 和 log store 的传送服务可以复用同一张状态表。 我们建议您将这张表的数据生命周期设置为一天或二天,这样可以降低使用成本。 状态表的主键有四列,分别为:
project_logstore,类型为 string。
shard,类型为 integer。
target_table,类型为 string。
timestamp,类型为 integer。
您需要对默认设置根据实际情况做一些改动。
低于尽可能和日志服务与表格存储选在同一个区域,这样可以使用私网地址避免公网流量以及公网带来的不确定性。
传送服务并不是一个http服务,不需要暴露任何端口。所以也无需负载均衡。
本教程选择“新增节点”以方便演示。 生产上我们建议您选择“不创建节点”,随后按照添加已有云服务器步骤添加现有的云服务器。
传送服务并不需要高配置的单机。一般情况下,“1核1gb”也足够用了。
传送服务可以完全动态的水平扩容缩容。 这里可以选择任意多台ecs。
集群初始化需要一些时间,请您稍待。您可以点击左侧“集群”进入集群列表界面查看集群的状态。
进行基本的应用设置
按照下图的参数填入一些应用环境参数信息,点击页面最后的“创建并部署”来部署传送服务。
选择传送服务的镜像。点击“选择镜像”之后会弹出如上图的选择窗口。搜索"loghub-shipper"来快速找到传送服务的镜像,选中该镜像(左上角蓝底白色的勾),然后“确定”。
为镜像添加配置信息:
部署服务需要一些时间。您可以通过服务列表来查看。就绪的服务如下图。
到目前为止,传送服务已经搭建好啦,让我们想日志服务中写入一条日志试试看效果吧。
这是一条有两个用户字段的日志,其中original字段的值为 "12345",keep字段的值为 "hoho"。除此以外还有三个日志服务添加的字段,其中 topic 为 "smile",而 __source__ 和 __time__ 字段随环境变化而变化。
使用工具马上可以看到表格存储中数据表已经有了一条数据(转成json格式方便描述)
其中,rename、trans-pkey、keep为主键列,__topic__与original为属性列。
根据环境变量中的配置:
在 transform 中定义 "rename": "original",日志数据中original 的值为"12345",故表格存储中该行的rename的值也为 "12345"
在 transform 中定义 "trans-pkey": "(->int 10 original)",传送服务将original的值以十进制的方式转成整数写入表格存储中的trans-pkey列
keep没有任何转换规则,在表格存储中,属性类keep的值与日志数据中的保持一致
日志数据中的 __source__ 和 __time__ 字段由于在exclusive_columns 中配置了["__source__", "__time__" ],这两个字段的数据不会写入数据表中
topic和original两个字段以属性列的方式写入数据表
同时,我们也从状态表中看到了如下数据(转成json格式方便描述):
其涵义为传送服务的某个worker("shipper_id": "fb0d62cacc94-loghub-shipper-loghub-shipper-1"), 在2016-07-21t11:31:45.202000z添加了这条状态("timestamp": 1469100705202)
在之前的五分钟里,该worker从名为 lhshipper-test 的日志 project中的 test-store 这个 log store ( "project_logstore": "lhshipper-test|test-store" ) 0号 shard ( "shard": 0 )消费了一条日志, 其中跳过日志0条( "skip_count": 0 ), 写入数据表的日志1条( "row_count": 1 ),消耗了1个cu( "cu_count": 1 )。
好啦,概耗时15分钟就把日志服务的数据秒级同步到表格存储的传送服务已经搭建好啦,日志类数据就可以使用日志服务的logtail方便的采集到云上,才通过传送服务方便的将数据同步到表格存储中,支持了不同的业务需要,简直是神器啊~