天天看点

海量数据实时计算利器Tec

在刚刚过去的2015年双11大促中,搜索事业部的实时计算和在线学习系统pora经受住了前所未有的双11巨量用户行为消息的冲击,在流入实时消息量持续超过300w/s,甚至峰值飙升至501w/s的压力下始终保持了端到端秒级实时效果,助力相关的搜索和推荐实时业务取得了很好的效果。

pora如何能在如此巨大的压力下不延迟?除了其在业务层面所做的种种优化以及集群层面的有力支持外,与其核心层tec的设计实现是分不开的。

另一条完全不同的战线上,aliexpress(ae)搜索的离线数据库dump业务在双11期间实现了从几小时批量到秒级实时的历史性飞跃,同时做到了全量增量一体化。得益于离线实时化,ae算法在双11中也取得了惊艳的效果。

与pora相同的是,ae的离线新架构中也采用了tec进行实时计算。

tec是针对海量流式数据实时计算场景的一套高效的轻量级实时计算框架,支持快速开发高吞吐、低延迟的实时应用。

tec名称取自于潮汐发电领域的tidal energy converter(tec),寓意其最适合的应用场景是在海量的流式数据驱动下作实时计算产出高价值的数据。

海量数据实时计算利器Tec

这里的实时计算具体逻辑可以依据应用需要灵活定制,可以是对流式输入数据进行的简单加工处理,也可以是基于输入数据和其它已有数据的复杂加工处理。无论何种场景,tec都会尽可能快速地完成所有逻辑的处理以保证实时,这对于海量数据实时业务中经常需要关联查询或更新相关数据的复杂场景特别有用。

在实时基础上,tec还作了大量封装和抽象,具备很强的通用性,从而使得开发各种实时应用可以很简单。

tec脱胎于pora。

从2013年开始第一代pora系统的研发后,期间经历海量数据和复杂实时业务场景的千锤百炼之后,终于到2014年形成了高性能的第二代pora系统,其核心层部分已对实时数据的处理过程作了相当程度的优化,这一系统在14年的双11大促中初试身手即通过其实时性能帮助算法取得了实时流量调控的很好效果。

我们在14年中的时候已经意识到pora的核心层完全可以复用于更普遍的流式计算场景,解决更多业务的实时性问题,于是在14年双11之后立刻启动了相关的工作,将pora核心层代码剥离出来,将其作了更深层的抽象和改进后,形成了现在的tec。

目前tec除了应用于类似pora的实时日志处理场景,也广泛用于搜索dump中心的其它实时场景。

tec具备以下鲜明特点。

低延迟

tec内部的in-memory dag实时计算框架通过尽可能地将dag节点并行处理,可最大程度加快数据处理过程,从而缩短总体端到端数据处理延迟。

高吞吐

除了低延迟带来的吞吐保障外,tec支持多线程并发处理,每个线程相互独立,通过内部的dag批量处理输入数据,从而可进一步提高整体吞吐。

海量数据处理

tec原生支持hbase作为海量数据存储并在使用方式上进行了大量抽象和优化,方便应用使用,并确保支持快速的高并发随机读写。

易嵌入

通过使用tec提供的api,开发人员可以很方便地将tec嵌入到自己的程序中用于数据处理。

跨平台

由于易嵌入的特点,tec可以嵌入多种计算平台的分布式应用中(比如istream和mapreduce),同时复用代码逻辑。

易监控

tec自带了众多metric并允许使用方扩充,可方便实时或事后观察系统运行情况,统计运行数据;同时tec也提供trace api,支持跟踪单条数据处理的详细过程。

少开发

tec抽象出了通用的存储、数据结构和常用数据处理逻辑,可复用于众多业务场景,开发人员只需开发少量较特殊的业务逻辑;同时tec支持和鼓励使用配置代替代码,从而使得业务开发维护可以进一步简化为配置工作。

可定制

tec采用松耦合的设计,对通用的存储、数据结构和处理逻辑无法满足的场景,用户可遵循tec的接口灵活扩展定制。

通用

tec适用于任何流式计算场景,特别适合海量流式数据的实时处理。

tec定位于底层流式计算平台和数据存储之上,业务层之下,通过嵌入到底层流式计算平台的处理进程中运行。处在这个位置,tec可以隔离业务和底层系统,通过底层计算平台接入数据,通过自身高度优化后的实时计算实现保证业务实际运行时具备高吞吐和低延迟的能力,通过暴露少量接口给业务层大幅降低业务开发成本。

由此带来的另外一个好处是,业务可以在不同底层计算平台(比如mapreduce和istream)间复用相同代码,这对某些既需要批处理又需要实时流程的业务(比如搜索批次全量和实时增量)来说意味着可以只需要维护一套代码,同时也降低了未来可能的底层平台切换成本。

目前tec使用的底层系统和支持的上层业务如下图所示。

海量数据实时计算利器Tec

业务层表示不同业务场景可以基于tec定制自身特定的平台框架,比如pora和dump领域各种完全不同的业务平台。

计算平台部分目前原生支持istream和mapreduce,分别对应long-running流式计算和批次流式计算场景。后者听上去有点奇怪,但实际上很多批次任务特别是map only任务在处理数据时大多是逐条处理的,其本质还是流式处理,因而完全可以使用tec。至于其它目前未支持的流式计算平台,理论上tec也都可以很容易地嵌入其中。

针对海量数据,hbase既可以提供存储支持,又可以提供快速随机读写,从而使得对海量数据流的各种实时的复杂关联计算成为可能,tec因此选择它作为原生支持的数据存储进行了抽象封装和大量的优化使用,使应用开发可以低门槛高效率的使用hbase。hbase之上,hqueue是tec目前配合istream使用时在上下游应用间可能需要重新分发数据时默认支持的一种基于hbase的队列实现,opentsdb则用于存储tec的metric历史数据以便监控应用运行状况。

container

嵌入式场景下不同流式计算平台中tec的载体,比如对应istream的istreamcontainer、对应mapreduce的mapcontainer/reducecontainer。

tecworker

每个container实例内部通过实例化一个tecworker对象将tec嵌入其内部,将数据交由tecworker处理。

tecthread

一个tecworker内部可以有多个tecthread线程,各自独立地并发处理输入数据。

dispatching

tecworker将数据交由某个tecthread的过程称为dispatching,对应的实现类称为dispatcher。

数据源

每个输入数据对象都有一个自己所属数据源的标记。

dag处理链

允许对每个数据源配置处理链,处理链包含多个节点,节点间按数据处理流程彼此依赖形成一个dag。

tecthread内部对每个数据源维护一个内存中的dag处理链,输入数据会触发对应数据源的dag处理链上每个节点依次执行,直到所有节点都执行完毕后认为该输入数据处理完毕。

executor

dag处理链上的每个节点称为一个executor,表示该节点负责的具体数据处理逻辑。

container(对应mapreduce是mapper/reducer的task进程,对应istream是role的worker进程)获取输入数据,交由内部的tecworker。

tecworker将数据通过dispatching机制实时转发至缓冲区。

各个tecthread以不停循环的方式,异步地从缓冲区内获取最新一批数据,驱动内部的dag处理链,dag上各个节点(称为executor)负责实现各个不同的具体处理逻辑,按照彼此依赖关系顺序或并行的执行,完成对一批数据的处理。

针对每一种输入数据,将总的处理流程细分为一些更小的节点,每个节点实现对应的executor java接口中的如下3个方法。

init

<code>void init(string initparam)</code>

tecthread初始化executor的时候执行,一个executor只会被初始化一次。

execute

<code>object[] execute(object... inobjs)</code>

定义了处理数据的具体逻辑,对不同输入数据反复执行该方法。

输入参数object数组表示来自数据源或上游executor输出的输入数据。假设该executor配置了m个输入,则传入数组的长度也为m,其中每个元素分别表示一个输入。

返回值object数组表示该executor的输出数据。假设该executor配置了n个输出,则输出数组长度也为n,其中每个元素分别表示一个输出。

cleanup

<code>void cleanup()</code>

只在tecthread退出的时候执行一次。

实现各个executor后需要配置在某个数据源的处理链上,并指定executor的输入输出关系,通过这种输入输出依赖自动形成了dag。某个executor当且仅当其需要的所有输入数据都准备好之后可以执行,这同时意味着某些情形下多个不同executor可以并行执行。

下图是pora中的一个简化了的dag例子。

海量数据实时计算利器Tec

上图中几个g_开头的executor是典型的访问存储的executor,通常相比其它executor慢,因而将这些executor并行化可以明显缩短dag总的处理耗时。

dag中所有的executor位于相同的进程内,所以其输入输出数据都在同一个jvm heap内,因而可以通过内存直接获取executor需要的输入数据,不需要再经过任何序列化/反序列化和消息传递过程,既提升了处理效率也使得executor可处理任意object数据。

海量数据处理中通常需要访问存储,在这种场景下单线程处理通常总会受制于io而无法充分利用cpu的计算能力,对此tec支持多个tecthread并发处理,可更充分地利用cpu从而进一步加大吞吐。

每个tecthread相互独立,内部使用相同拓扑的dag处理链,处理不同的输入数据。每批输入数据处理完后,tecthread随即从缓冲区中获取新的一批实时输入数据。获取的策略是实时小批量,即以实时性为主兼顾批处理能带来的效率提升。简单说是在不超过batch.max前提下有多少取多少,从而使得缓冲区内的数据能被最快地处理完成。这里采用小批量的方式有助于业务针对批量作优化,比如去重、聚合、批量访问存储等。

引入多线程后,tecworker需要选择将数据发给哪个tecthread。目前tec支持以下两种分发策略,两种方式各有利弊。

缺省的roundrobin方式,好处是每个tecthread收到大体相同数量的数据,没有数据倾斜;坏处是不适合多线程并发修改相同key的业务场景。

fielddispatching方式,好处是可以将相同key的数据交由同一个tecthread处理,避免多线程并发修改的问题;坏处是有可能因为热点数据造成数据倾斜(针对这种热点tec会自动识别并优化处理尽可能减轻影响)。

executor设计上支持任意object的处理,但为了尽可能提供通用实现以减轻应用开发成本,tec提供了fieldmap的通用数据结构。

fieldmap是一个map实现类,其数据是字段名到字段值的映射,符合大量业务场景数据建模需求。

基于fieldmap tec可以支持fielddispatching,确保相同字段值的fieldmap数据被相同tecthread处理。fieldmap也支持序列化/反序列化,以便存储至队列或其它介质。另外,针对fieldmap tec还提供fieldmatcher,可用来检查fieldmap数据是否符合特定的字段值条件,从而更方便地对数据做过滤。

为了方便后续处理,tec建议在dag的第一个executor中将输入数据转换为fieldmap数据,此类executor称为inputparser。为此tec提供了一个抽象类baseinputparser供其它具体inputparser继承实现,baseinputparser除定义方法接口外,还附带了实时统计qps和gap metric的功能。如果输入数据本身就是fieldmap类型,则可以直接使用fieldmapparser作为inputparser。

tec原生支持hbase作为海量数据存储,并针对常用的随机查询模式进行了针对性的封装、抽象和优化,使应用可以高效率低门槛地使用hbase。

tec首先通过抽象类basetable在rowkey sharding、batch访问、htable创建等方面统一了对hbase的使用,既方便了用户又优化了读写hbase的性能。

在此基础上,tec更进一步将常用htable抽象为kvtable,kkvtable和kktvtable 3种,并提供了通用实现及对应的executor,从而使得大部分业务不需要再开发任何有关hbase读写的代码。

以fieldmap和hbase抽象为基础,tec提供了目前目前已知的各种fieldmap操作及hbase读写等通用executor实现,新业务基于tec开发时可直接复用这些已有的executor实现,不需要再开发。

通过这些通用实现,tec希望新业务开发时可以尽可能地复用各种通用executor,只在业务确实有特殊逻辑时定制自己的executor,从而用最少的开发工作实现业务需求。

下图是一个典型的实时业务场景对应的dag处理链。

海量数据实时计算利器Tec

其中,parse将输入数据解析为fieldmap,getxxx基于解析结果查询若干hbase表数据,joinxxx将查到的hbase数据合并到fieldmap,modify由业务根据需要对数据进行加工,最后将结果输出回一张hbase表。

图中只有modify executor需要业务自主实现,其它executor都已有通用实现可以复用。

以上是tec的基本功能,除此之外tec还有其它一些高级功能。

针对fielddispatching时可能出现的数据倾斜,tec实现了相应的自动优化处理功能。对正常范围的数据倾斜,接收数据最多的tecthread将获得更大的缓冲区,以减轻对其它tecthread的影响;对热点数据造成的数据倾斜,tec可以自动识别出这些热点数据并开辟专用的tecthread进行处理,既可以避免对其它tecthread造成影响,又可以允许业务通过批量去重、聚合等手段加快对热点数据的处理。

tec对hbase等存储的抽象中还支持开启cache,这是一个write-through的lru kv cache,在tecworker级别缓存存储中访问最频繁的数据,供tecthread共享使用。lrukvcache可减少对存储的读取,特别是配合fielddispatching策略时可以显著减少对主键关联数据的查询,既减少对存储系统的压力,减轻热点数据影响,又可以加快dag处理速度,进一步缩短延迟。

此外,tec还有子dag、异步executor实现、配合istream热切换配置等高级功能,这里不再展开。

tec通过dag实时计算框架和对存储的优化使用确保低延迟和高吞吐,通过大量的抽象和通用executor实现大幅度减少应用开发工作量,可极大降低海量数据实时计算应用的开发成本。