zookeeper-集群扩缩容
引言:
作为zk的日常运维人员,难免会遇到服务扩缩容的情况, 因此,我们需要掌握相关流程。
一. 3.5前的版本:
1. 扩容:
原有节点
主机 | myid | 事务端口 | 选举端口 | 角色 |
l-zk-test1.xxx.com | 1 | 2888 | 3888 | follower |
l-zk-test2.xxx.com | 2 | 2888 | 3888 | leader |
l-zk-test3.xxx.com | 3 | 2888 | 3888 | follower |
新加入两个节点:
l-zk-test4.xxx.com | 4 | 2888 | 3888 |
l-zk-test5.xxx.com | 5 | 2888 | 3888 |
a). 新节点添加配置:
tickTime=2000
initLimit=30
syncLimit=5
dataDir=/opt/zookeeper/data
dataLogDir=/opt/zookeeper/log
clientPort=2181
maxClientCnxns=1024
minSessionTimeout=4000
maxSessionTimeout=40000
autopurge.purgeInterval=24
autopurge.snapRetainCount=5
server.1=l-zk-test1.xxx.com:2888:3888
server.2=l-zk-test2.xxx.com:2888:3888
server.3=l-zk-test3.xxx.com:2888:3888
server.4=l-zk-test4.xxx.com:2888:3888
server.5=l-zk-test5.xxx.com:2888:3888
leaderServes=yes
b). 输入对应myid(echo 4 > /opt/zookeeper/data/myid)后,启动新节点(bin/zkServer.sh start)。
c). 逐台变更老节点配置,重启服务(bin/zkServer.sh restart)
2. 节点缩容:
对于缩减,相当简单了, 只需要关闭需要下线的节点, 然后逐台变更线上节点配置后重启即可。
3. 节点故障(替换):
如果采用主机名方式(可以被其他节点解析), 绑定host或者dns 。 这种情况下,之间将node id和主机名改成故障节点的,启动就行。
如果采用ip的方式,那就只能走新增老的, 缩容故障 ,的方式了。
二. 3.5.0之后的版本:
对于3.5.0版本以后,支持重配置动态变更配置。
zookeeper的重配置通过将部分配置移到一个动态文件(dynamicConfigFile)中来实现重配置, 如之前的静态配置为:
#vim zoo.cfg
tickTime=2000
initLimit=30
syncLimit=5
dataDir=/opt/zookeeper/data
dataLogDir=/opt/zookeeper/log
maxClientCnxns=1024
minSessionTimeout=4000
maxSessionTimeout=40000
autopurge.purgeInterval=24
autopurge.snapRetainCount=5
dynamicConfigFile=./dyn.cfg#dyn.cfg配置:
server.1=l-zk-test1.xxx.com:2888:3888:participant;2181
server.2=l-zk-test2.xxx.com:2888:3888:participant;2181
server.3=l-zk-test3.xxx.com:2888:3888:participant;2181
部署新节点后,我们通过以下指令就可变更节点:
reconfig -remove 2,3 -add server.4=l-zk-test4.xxx.com:2888:3888:participant;2181,5=l-zk-test5.xxx.com:2888:3888:participant;2181
不需要逐台变更配置,重启服务。
- --------------------------------------------------------------------------------------------------------------------------
深耕运维行业多年,擅长运维体系建设,方案落地。欢迎交流!
“V-x”: ywjw996
《 运维经纬 》