天天看点

浅谈分布式系统的基本问题:可用性与一致性 该文章来自于阿里巴巴技术协会(ATA)精选文章。 背景

        可用性(availability)和一致性(consistency)是分布式系统的基本问题,先有著名的cap理论定义过分布式环境下二者不可兼得的关系,又有神秘的paxos协议号称是史上最简单的分布式系统一致性算法并获得图灵奖,再有开源产品zookeeper实现的zab协议号称超越paxos,它们之间究竟有什么联系?在网络上没有文章将其清楚地阐述过,于是想到把自己对cap理论、paxos协议以及zab协议的理解整理成短文,但我唯一不保证的是正确性,各位看官看着办。

         一致性可理解为所有节点都能访问到最新版本的数据,这在单机场景下非常容易实现,使用共享内存和锁即可解决,但数据存储在单机会有两个限制:1)单机不可用系统整体将不可用;2)系统吞吐量受限于单机的计算能力。消除这两个限制的方法是用多机来存储数据的多个副本,负责更新的客户端会同时更新数据的多个副本,于是问题就来了,多机之间的网络可能无法连接,当负责更新的客户端无法同时到连接多个机器时,如何能保证所有客户端都能读到最新版本的数据?

         如下图1中所示,client a负责更新数据,为了保证server 1和server 2上的数据是一致的,client a会将x=1的写操作同时发给server 1和server 2,但是当client a和server 2之间发生网络分区(网络无法连接)时,此时如果让write x=1的写操作在server 1上成功,那client b和client c将从server 1和server 2上读取到不一致的x值;此时如果要保持x值的一致性,那么write x=1的写操作在server 1和server 2上都必须失败,这就是著名的cap理论:在容忍网络分区的前提下,要么牺牲数据的一致性,要么牺牲写操作的可用性。

浅谈分布式系统的基本问题:可用性与一致性 该文章来自于阿里巴巴技术协会(ATA)精选文章。 背景

图1:cap理论示意图

        解决这个问题你可能会想到让client c同时读取server 1和server 2上的x值和版本信息,然后取server 1和server 2最新版本的x值, 如下图2所示。但client c和server 1之间也可能发生网络分区,这本质上是牺牲读可用性换取写可用性,并没有突破cap理论。

浅谈分布式系统的基本问题:可用性与一致性 该文章来自于阿里巴巴技术协会(ATA)精选文章。 背景

图2:对图1中可用性的优化

         cap理论由加州大学伯克利分校的计算机教授eric brewer在2000年提出,其核心思想是任何基于网络的数据共享系统最多只能满足数据一致性(consistency)、可用性(availability)和网络分区容忍(partition tolerance)三个特性中的两个,三个特性的定义如下:

数据一致性:等同于所有节点拥有数据的最新版本

可用性:数据具备高可用性

分区容忍:容忍网络出现分区,分区之间网络不可达

        在大规模的分布式环境下,网络分区是必须容忍的现实,于是只能在可用性和一致性两者间做出选择,cap理论似乎给分布式系统定义了一个悲观的结局,一时间大家都按照cap理论在对热门的分布式系统进行判定,譬如认为hbase是一个cp系统,cassandra是ap系统,我个人认为这是不严谨的,理由是cap理论是对分布式系统中一个数据无法同时达到可用性和一致性的断言,而一个系统中往往存在很多类型的数据,部分数据(譬如银行账户中的余额)是需要强一致性的,而另外一部分数据(譬如银行的总客户数)并不要求强一致性,所以拿cap理论来划分整个系统是不严谨的, cap理论带来的价值是指引我们在设计分布式系统时需要区分各种数据的特点,并仔细考虑在小概率的网络分区发生时究竟为该数据选择可用性还是一致性。

        对cap理论的另外一种误读是系统设计时选择其一而完全不去优化另外一项,可用性和一致性的取值范围并不是只有0和1,可用性的值域可以定义成0到100%的连续区间,而一致性也可分为强一致性、弱一致性、读写一致性、最终一致性等多个不同的强弱等级,细想下去cap理论定义的其实是在容忍网络分区的条件下,“强一致性”和“极致可用性”无法同时达到。(注:这里用“极致可用性”而不用“100%可用性”是因为即使不考虑一致性,多台server组成的分布式系统也达不到100%的可用性,如果单个server的可用性是p,那n台server的极致可用性是

浅谈分布式系统的基本问题:可用性与一致性 该文章来自于阿里巴巴技术协会(ATA)精选文章。 背景

, 公式的意思是只要任何一台或多台server可用就认为系统都是可用的)

        虽然无法达到同时达到强一致性和极致可用性,但我们可以根据数据类型在二者中选择其一后去优化另外一个,paxos协议就是一种在保证强一致性前提下把可用性优化到极限的算法。

        paxos协议由leslie lamport最早在1990年提出,由于paxos在云计算领域的广泛应用leslie lamport因此获得了2013年度图灵奖。

        paxos协议提出只要系统中2f+1个节点中的f+1个节点可用,那么系统整体就可用并且能保证数据的强一致性,它对于可用性的提升是极大的,仍然假设单节点的可用性是p,那么2f+1个节点中任意组合的f+1以上个节点正常的可用性p(total)=

浅谈分布式系统的基本问题:可用性与一致性 该文章来自于阿里巴巴技术协会(ATA)精选文章。 背景

,又假设p=0.99,f=2,p(total)=0.9999901494,可用性将从单节点的2个9提升到了5个9,这意味着系统每年的宕机时间从87.6小时降到0.086小时,这已经可以满足地球上99.99999999%的应用需求。

        leslie写的两篇论文:《the part-time parliament》和《paxos made simple》比较完整的阐述了paxos的工作流程和证明过程,paxos协议把每个数据写请求比喻成一次提案(proposal),每个提案都有一个独立的编号,提案会转发到提交者(proposer)来提交,提案必须经过2f+1个节点中的f+1个节点接受才会生效,2f+1个节点叫做这次提案的投票委员会(quorum),投票委员会中的节点叫做acceptor,paxos协议流程还需要满足两个约束条件: a)acceptor必须接受它收到的第一个提案;b)如果一个提案的v值被大多数acceptor接受过,那后续的所有被接受的提案中也必须包含v值(v值可以理解为提案的内容,提案由一个或多个v和提案编号组成)。

        paxos协议流程划分为两个阶段,第一阶段是proposer学习提案最新状态的准备阶段;第二阶段是根据学习到的状态组成正确提案提交的阶段,完整的协议过程如下:

阶段 1.

proposer选择一个提案编号n ,然后向半数以上的acceptors发送编号为 n 的prepare请求。

如果一个acceptor收到一个编号为n 的prepare请求,且 n 大于它已经响应的所有prepare请求的编号,那么它就会保证不会再通过(accept)任何编号小于 n 的提案,同时将它已经通过的最大编号的提案(如果存在的话)作为响应。 

阶段 2.

如果proposer收到来自半数以上的acceptor对于它的prepare请求(编号为n )的响应,那么它就会发送一个针对编号为 n ,value值为 v 的提案的accept请求给acceptors,在这里 v 是收到的响应中编号最大的提案的值,如果响应中不包含提案,那么它就是任意值。

如果acceptor收到一个针对编号n 的提案的accept请求,只要它还未对编号大于 n 的prepare请求作出响应,它就可以通过这个提案。

        用时序图来描述paxos协议如图3所示:

浅谈分布式系统的基本问题:可用性与一致性 该文章来自于阿里巴巴技术协会(ATA)精选文章。 背景

图3:paxos协议流程的时序图

        上述paxos协议流程看起来比较复杂,是因为要保证很多边界条件下的协议完备性,譬如初试值为空、两个proposer同时提交提案等情况,但paxos协议的核心可以简单描述为:proposer先从大多数acceptor那里学习提案的最新内容,然后根据学习到的编号最大的提案内容组成新的提案提交,如果提案获得大多数acceptor的投票通过就意味着提案被通过。由于学习提案和通过提案的acceptor集合都超过了半数,所以一定能学到最新通过的提案值,两次提案通过的acceptor集合中也一定存在一个公共的acceptor,在满足约束条件b时这个公共的acceptor时保证了数据的一致性,于是paxos协议又被称为多数派协议。

        paxos协议的真正伟大之处在于它的简洁性,paxos协议流程中任何消息都是可以丢失的,一致性保证并不依赖某个特殊消息传递的成功,这极大的简化了分布式系统的设计,极其匹配分布式环境下网络可能分区的特点,相比较在paxos协议之前的“两阶段提交(2pc)”也能保证数据强一致性,但复杂度相当高且依赖单个协调者的可用性。

        那既然paxos如此强大,那为什么还会出现zab协议?

        paxos协议虽然是完备的,但要把它应用到实际的分布式系统中还有些问题要解决:

在多个proposer的场景下,paxos不保证先提交的提案先被接受,实际应用中要保证多提案被接受的先后顺序怎么办?

paxos允许多个proposer提交提案,那有可能出现活锁问题,出现场景是这样的:提案n在第二阶段还没有完成时,新的提案n+1的第一阶段prepare请求到达acceptor,按协议规定acceptor将响应新提案的prepare请求并保证不会接受小于n+1的任何请求,这可能导致提案n将不会被通过,同样在n+1提案未完成第二阶段时,假如提案n的提交者又提交了n+2提案,这可能导致n+1提案也无法通过。

paxos协议规定提案的值v只要被大多数acceptor接受过,后续的所有提案不能修改值v,那现实情况下我还要修改v值怎么办?

        zookeeper的核心算法zab通过一个简单的约束解决了前2个问题:所有提案都转发到唯一的leader(通过leader选举算法从acceptor中选出来的)来提交,由leader来保证多个提案之间的先后顺序,同时也避免了多proposer引发的活锁问题。

        zab协议的过程用时序图描述如图4所示,相比paxos协议省略了prepare阶段,因为leader本身就有提案的最新状态,不需要有提案内容学习的过程,图中的follower对应paxos协议中的acceptor,observer对应paxos中的learner。

浅谈分布式系统的基本问题:可用性与一致性 该文章来自于阿里巴巴技术协会(ATA)精选文章。 背景

图4:zab协议的工作过程

        zab引入leader后也会带来一个新问题: leader宕机了怎么办?其解决方案是选举出一个新的leader,选举leader的过程也是一个paxos提案决议过程,这里不展开讨论。

        那如何做到提案的值v可以修改呢?这不是zab协议的范畴,研究zookeeper源码后发现它是这么做的:zookeeper提供了一个znode的概念,znode可以被修改,zookeeper对每个znode都记录了一个自增且连续的版本号,对znode的任何修改操作(create/set/setacl)都会促发一次paxos多数派投票过程,投票通过后znode版本号加1,这相当于用znode不同版本的多次paxos协议来破除单次paxos协议无法修改提案值的限制。

        从保证一致性的算法核心角度看zab确实是借鉴了paxos的多数派思想,但它提供的全局时序保证以及zookeeper提供给用户可修改的znode才让paxos在开源界大放异彩,所以zab的价值不仅仅是提供了paxos算法的优化实现,也难怪zab的作者一直强调zab和paxos是不一样的算法。

         cap理论告诉我们在分布式环境下网络分区无法避免,需要去权衡选择数据的一致性和可用性,paxos协议提出了一种极其简单的算法在保障数据一致性时最大限度的优化了可用性,zookeeper的zab协议把paxos更加简化,并提供全局时序保证,使得paxos能够广泛应用到工业场景。

《cap 理论》: http://en.wikipedia.org/wiki/cap_theorem

《the part-time parliament》:http://courses.csail.mit.edu/6.897/fall04/papers/lamport/lamport-paxos.pdf

《paxos made simple》:http://dsdoc.net/paxosmadesimple/index.html

《zab协议》:http://blog.csdn.net/bruceleexiaokan/article/details/7849601

《关于zab》:https://cwiki.apache.org/confluence/display/zookeeper/zab+in+words

《zookeeper的一致性协议:zab》:http://blog.csdn.net/chen77716/article/details/7309915

继续阅读