Zookeeper初探

目录

再挖个坑,准备仔细看一下zookeeper。zookeeper作为很多分布式服务中用于管理的关键一环,意义其实很重要,这里先仔细学习下吧。

##什么是zookeeper zookeeper贵为apache的顶级项目,在它的介绍中说

ZooKeeper is a centralized service for maintaining configuration information, naming, providing distributed synchronization, and providing group services

看见zk可以用来做配置管理、名称服务管理、分布式同步和提供集群服务。

##zookeeper的安装配置 有个小插曲,在编译zk的C代码的时候,autoreconf一直过不去,提示 error: possibly undefined macro: AM_PATH_CPPUNIT ,后来在zk的邮件组里查到了,原来是少了cppunit-devel包,安装上之后就能编译了。用java来写code这么费劲,还是先尝试一下python来操作zk吧,正好在网上找到了一个很不错的demo,他这里使用的是zkpython这个python的zookeeper包,使用的是zk的C版客户端。

尝试在单机部署多个zk的节点,那就需要为每个节点做一个配置文件,里面指定不同datadir和client port,例如配置文件zoo.1.cfg:

dataDir=/home/rockiee281/zk/server1
# the port at which the clients will connect
clientPort=2181
server.1=localhost:2887:2889
server.2=localhost:3888:3889
server.3=localhost:4888:4889

上面是其中一个server的配置,clientPort开在了2181,这个是客户端用来连接zk server的;server配置中,第一个端口用于和leader通讯,第二个端口用于leader的选举。每个dataDir中要创建对应的myid文件,文件内容就是server的id。然后通过命令bin/zkServer.sh start conf/zoo.1.cfg来分别启动3个server,就大功告成啦。在这之后可以用zk的bin目录提供的zkCli.sh来作为客户端访问zkserver(使用java客户端),也可以在src/c目录下编译出来的cli_st和cli_mt来访问(使用C客户端)。在使用c客户端的时候就遇到的一个很恶心的问题……原来zk的path中是可以有空格(\u0000)的, 这样通过cli_st创建的node,最后node的data就变成node path的一部分了……。比如create /app/data test本来应该创建一个/app/data的node,里面包含的数据是test,结果创建出来一个/app/data test的节点出来了。

##zookeeper的使用 还是在上面提到的那个样例中,作者介绍了一种很不错的zk使用办法。在创建zk的node时,加上zookeeper.EPHEMERALzookeeper.SEQUENCE。EPHEMERAL的节点是临时节点,当创建节点的客户端断掉链接之后,zk将删除这个节点;而加上SEQUENCE之后,zk会自动为创建的节点加上sequence number,方便为节点进行排序。这样,就可以使用一种巧妙的办法来做master-slaver状态维护。多个客户端在zk上创建节点,然后把sequence最小的那个节点作为master,同时所有的master都设置watcher监控;一旦master节点down掉,那么剩下节点中sequence最小的那个将继承为master,其他的slave节点也都会被通知到。这样就可以得到一个动态稳定的master-slaver结构。

###zookeeper的watch zk的watch是个很有趣的特性,所有的读操作(getData()\getChildren()\exists()),都可以设置一个watch。在官网的介绍中提到它的三个关键点:

  1. One-time trigger。zk的watch不是持续的监控而是一次性的,当watch被触发之后,就会被清除掉,如果还想继续监控某个node的话,需要再设置一次watch
  2. Sent to client。change是有zk的server发动给client的,只有client设置watch之后的change才会发送给对应的client。
  3. The data for which the watch was set。通过三种不同的读操作设置的watch,会收到不同操作的响应,比如getdata()和exists()会返回node中data的信息,因此setData()操作会触发这两者的watch;create()操作成功同样会触发这两者以及监控父节点的getChildren()等等

###zookeeper的stat structure 执行语句get /app/workers,可以得到下面的结果:

cZxid = 0x800000003
ctime = Thu Feb 27 22:49:40 CST 2014
mZxid = 0x800000003
mtime = Thu Feb 27 22:49:40 CST 2014
pZxid = 0xe00000003
cversion = 23
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 0
numChildren = 1

在zk的官网上对上面这些参数有做解释。首先要说明的是zxid(Zookeeper transaction id),zookeeper每发生一次变化zxid就会自增一次,zxid可以被视作zookeeper状态变化的一个序号。所以如果zxid1小于zxid2,那么zxid1就一定发生在zxid2之前。cZxid是znode被创建时的时间节点,而mZxid则是znode最后被修改的时间节点,pZxid是最后更改的children时间;ctime和mtime就比较好理解了,这个是绝对时间;cversion是它的children node发生变化的次数,dataversion我猜是znode的data变化的次数,aclversion则是该node的zcl变化的次数;datalength是znode data的长度;ephemeralOwner如果该node是ephemeral node,这个字段就是它拥有者的session id,否则是0x00;numChildren指该znode的子节点个数。

###zookeeper sessions

  • zookeeper的每个client可以通过java或者C客户端来连接server,通过将多个zk server写在一起,可以实现failover。例如”127.0.0.1:3000,127.0.0.1:3001,127.0.0.1:3002”,如果其中一个client连接的server down掉了,client会自动尝试连接列表中剩下的几个server,直到连接成功。每个session都会有个sessionid,比如上文中提到的ephemeralOwner ephemeralOwner = 0x1447292753d0003。连接创立之后,和sessionid一起发送给客户端的还有一个password,当客户端和当前server的连接断掉去连接一个新的server时候,会把password和sessionid一起发送给新的server用来重建连接。

  • zookeeper的client会在连接成功的时候告诉服务器连接超时时间,而服务器会返回一个它接受的超时时间,目前这个值是tickTime的2倍到20倍之间。

  • zookeeper的client会自动重连,一般情况下不要自己编写代码去手动的重连,除非是遇到了session过期,session过期是由zkserver而不是client来管理的。当zkserver在timeout时间内没有收到来自client的心跳,就会认为是session已经过期了。

##zookeeper的一致性保证

  • 顺序一致性,client提交的更新请求一定会按照提交的顺序执行
  • 原子性,更改要么全部成功要么全部失败。
  • 单一系统镜像,客户端在连接各个server的时候读取到的数据是一样的。但是这里需要注意,zk并不保证数据的更新是同步的,所以如果要求多个client读取到的数据是同步的,需要在读取之前调用sync()方法
  • 可靠性。一个更新一旦应用成果,它就会被持久化知道一个新的更新覆盖它。
  • timelines(时间轴?)。

基于zookeeper的这些特性,可以以zk为基础做出很多有用的分布式系统出来,zk官方也做了一个文档介绍,这些个就留到后面再开一篇好了。