一、 项目案例
用户商业模式含盖电商零售与加盟店批发零售,本次主要业务需求在于淘宝双11期间能实时计算用户所关注的一些指标数据,如:订单数、订单金额、商品SKU数、订单来源地、商品排名等等。
基于这些指标需求,除了要达到实时的要求以外,还需要具备适当的展现图设计,本次使用的是阿里云的DATAV,提供饼状图占比分析、商品与类目数据排名、国家地图热力展示等等。
二、 技术架构
由于用户的数据在云下,我们考虑的首先是迁移数据上云,再通过DTS将数据同步至DATAHUB,接着使用阿里流计算开发平台接入DATAHUB数据,并开发流计算代码,将执行结果输出至RDS MYSQL,最后DATAV引用RDS数据并开发图形展现界面。最终设计的技术架构如下图所示:
图:流计算数据逻辑设计图
三、 技术实现
2.1、datahub业务表的引用:
注解说明:
a、 在流计算引擎中建一张表,该表的名称是什么,建议和DataHub上一致
b、 要引用到该表的哪些字段,建议不需要的字段不要引用
c、 系统自建的TOPIC,该字段纪录的是该行数据是更新还是插入还是删除
d、 流计算可以引用多种数据源,这里表明数据源类型
e、 固定写法
f、 DataHub上的项目名称
g、 DataHub上的topic名称
h、 DataHub默认保留三天内的业务数据,该时间指定流计算引擎从哪个时间点取数
a、 该表的主键是什么,需要指定
b、 维表的固定写法,表明维表的更新时间(默认是多久?调整更新时间怎么弄?)。
注意该表的来源是rds,后面的连接方式和正常的MYSQL连接方式没什么区别。
2.3、数据输出表的写法和维表的写法基本一致,只是没有PERIOD FOR SYSTEM_TIME,要提前在RDS上建好即可。
2.4、应用脚本开发:将引用到的业务表与维表进行关联,将数据输出至目标表
a、和标准SQL没太大区别,主要就是维表的使用方式略有不同,不过也是固定写法,照抄就行。
注意:由于原始数据有插入、删除、更新三种动作,所以DataHub上也会有三种状态的数据,这就需要分别进行处理,否则数据会不准。
3、 DataV开发:此处省略,简单归纳即:托一个图形,写一个SQL。
四、项目预案
由于流计算可能存在的风险,我们考虑以传统的计算方式开发第二套方案,当流计算出故障时,能快速切换方案,保证数据基本能正常使用,可能延迟会大一些。
通过评估,由于数据量预计不会太大,考虑使用定时调存储过程的方式计算指标到第二套输出表上,再开发第二套报表,展现和第一套一致。设计图如下:
图:定期调任务刷数据
五、项目压测
为了保障数据爆发时,平台依然能稳定的工作,我们进行了相关的一些测试。首先模拟大量的数据产生,确认数据从本地库至RDS的同步时间,RDS至DATAHUB的时间,以及流计算所处理的时间。
通过多次的测验得出:当数据量持续比较大的情况下,数据会有一些延迟,性能瓶颈主要体现在RDS以及DTS同步至DATAHUB环节,其中后一步比较明显。而平台稳定性基本上是可以的,流计算的处理效率非常令人满意。