SSM+shiro等程序员javaweb收藏

【181110】分布式协调服务的自我修养(zookeeper)

2018-11-20  本文已影响166人  林湾村龙猫

随着互联网技术的发展,大型网站需要的计算能力和存储能力越来越高,网站架构逐渐从集中式转变成分布式系统。

虽然分布式相对于集中式系统有比较多的优势,比如更高更强的计算、存储、处理能力等。但同时也引入了其他一些问题,比如如何在分布式系统中保证数据的一致性和可用性。

在日常中,如果两个员工或用户对某件事产生了分歧,通常我们的做法是找上级,去做数据和信息的同步。

那么对于我们的服务呢,多个节点之间数据不同步如何处理?

在单机发展到集群、分布式服务的过程中,每一件技术或工具都走向了系统化,专一化的道路。举个例子,在单体应用中,如果多个线程想对同一个变量进行修改,我们通常的做法是对要修改的变量或资源加锁。那么对于集群来说,并没有这样的东西,我们应该怎么做?

对于分布式集群来说,这个时候,我们通常需要一个能够在各个服务或节点之间进行协调服务或中间人

架构设计中,没有一个问题不能通过一层抽象层来解决,如果有,那就是两层。

集群管理

我们可以一起看看,协调服务中的佼佼者--ZooKeeper

zookeeper起源

zoo

最初,在Hadoop生态中,会存在很多的服务或组件(比如hive、pig等),每个服务或组件之间进行协调处理是很麻烦的一件事情,急需一种高可用高性能数据强一致性的协调框架。因此雅虎的工程师们创造了这个中间程序,但中间程序的命名却愁死了开发人员,突然想到hadoop中的大多是动物名字,似乎缺乏一个管理员,这个程序的功能有是如此的相似。因此zookeeper诞生。

zookeeper提供了哪些特性,以便于能够很好的完成协调能力的处理呢?

功能与特性

数据存储

zookeeper提供了类似Linux文件系统一样的数据结构。每一个节点对应一个Znode节点,每一个Znode节点都可以存储1MB(默认)的数据。

客户端对zk的操作就是对Znode节点的操作。

zookeeper数据结构

举个例子,在注册中心中,可以通过路径"/fsof/服务名1/providers"找到"服务1"的所有提供者。

每一个Znode节点又根据节点的生命周期类型分为4种节点。

zookeeper节点

监听机制

zookeeper除了提供对Znode节点的处理能力,还提供了对节点的变更进行监听通知的能力。

zookeeper监听机制

监听机制的步骤如下:

  1. 任何session(session1,session2)都可以对自己感兴趣的znode监听。
  2. 当znode通过session1对节点进行了修改。
  3. session1,session2都会收到znode的变更事件通知。

节点常见的事件通知有:

需要特别说明的是:

一次监听事件,只会被触发一次,如果想要监听到znode的第二次变更,需要重新注册监听。

到这里,我们了解到zookeeper提供的能力,那我们在哪些场景可以使用它?如何使用它呢?

应用场景

zookeeper用得比较多的地方可能是,微服务的集群管理与服务注册与发现。

注册中心

注册中心模型

目前还有个比较流行的服务Eureka也可以做注册中心,他们有什么优势和劣势呢?留个疑问,哈哈哈。

分布式锁

分布式锁

redis和db也能创建分布式锁,哪有什么异同呢?留个疑问,哈哈哈。

分布式锁可以参考我的另一篇文章:分布式锁 https://www.jianshu.com/p/e4174e499798

集群管理与master选举

集群管理与master选举

当然还有其他应用场景,不一一列举了。

有人说,zookeeper可以做分布式配置中心、分布式消息队列,看到这里的小伙伴们,你们觉得合适么?

到这里,可以基本上满足基于zk应用开发的理论知识储备。对原理或有更强求知欲的小伙伴可以继续往下看,接下来聊聊zookeeper如何做到高性能高可用强一致性的。

高性能高可用强一致性保障

高性能-分布式集群

zookeeper集群部署

高性能,我们通常想到的是通过集群部署来突破单机的性能瓶颈。对于zk来说,就是通过部署多个节点共同对外提供服务,来提供读的高性能。

数据一致性(zab协议-原子广播协议)

通过集群的部署,根据CAP原理,这样,可能导致同一个数据在不同节点上的数据不一致。zookeeper通过zab原子广播协议来保证数据在每一个节点上的一致性。原子广播协议(类似2PC提交协议)大概分为3个步骤。

zab原子广播协议

需要说明的是,zookeeper对数据一致性的要求是:

可用性-leader选举(zab协议-崩溃恢复协议)

在整个集群中,写请求都集中在一个Leader节点上,如果Leader节点挂了咋办呢?

zab崩溃恢复协议

当集群初始化或Follower无法联系上Leader节点的时候,每个Follower开始进入选举模式。选举步骤如下:

  1. Follower节点第一次投票先投自己,然后将自己的选票广播给剩余的Follower节点。
  2. Follower节点接收到其他的选票。
  3. 选票比较:比较自己的与接收的选票的投票更有。
  4. 如果资金的选票不是最优选票,变更自己的选票,投最优选票的节点。
  5. 统计自己收到的选票,如果某个节点获得了过半的节点的投票。确认该节点为新的Leader节点。
  6. 确认Leader节点后,每个节点变更自己的角色。完成投票选举。

选举原则:谁的数据最新,谁就有优先被选为Leader的资格。

举个例子,假如现在zk集群有5个节点,然后挂掉了2个节点。剩余节点S3,S4,S6开始进行选举,他们的最大事务ID分别是6,2,6。定义投票结构为(投票的节点ID,被投节点ID,被投节点最大事务ID)。

zookeeper选举举例
  1. 初始状态,S3,S4,S5分别投自己,并带上自己的最大事务ID。
  2. S3,S4,S5分别对自己收到的2票与自己的1票做比较。
  3. S5发现自己的是最优投票,不变更投票,S3,S4发现S5的投票是最优解,更改投票。
  4. S3,S4广播自己变更的投票。
  5. 最后大家都确认了S5是Leader,S5节点状态变更为Leader节点,S3,S4变更为Follower节点。

到这里,就是选举的主要过程。

数据的持久化

数据的恢复与持久化

比较

前面也提到过,不同的应用场景似乎有不少替代品,我们就大概做个简单的比较。

注册中心的比较(与Netflix的Eureka方案)

Eureka架构图

通过上面的架构图,可以发现Eureka不同于zk中的节点,Eureka中的节点每一个节点对等。是个AP系统,而不是zk的CP系统。在注册中心的应用场景下,相对于与强数据一致性,更加关心可用性。

分布式锁(与redis、mysql比较)

分布式锁可以参考我的另一篇文章:分布式锁(redis/mysql) https://www.jianshu.com/p/e4174e499798

具体差异比较:

通过这些比较,我们为什么还需要或在什么场景下使用zookeeper呢。我觉得就一句话:

zookeeper,一种通用的分布式协调服务解决方案。

感悟

最后,说说在整个学习和使用zk过程中的一个感悟吧。

都看到这里了,关注个公众号吧,一起交流学习


微信公众号rudy_tan_home
上一篇 下一篇

猜你喜欢

热点阅读