1.将集群中的leader设置不接受客户端连接,让它专注于集群的通信、选举等操作
设置方式:
在zoo.cfg中增加
leaderServes=no
2.在大型的生产系统中,zookeeper机器会很多,因为选举的过半原则,导致每一次选举都需要大量的网络通信,如果并发高,请求多,那么性能会降低很多,为此zookeeper添加了观察者observer,它不参与选举,但是可以接受客户端的连接。
因为观察者不参与选举,因此观察者挂了的话,并不会影响整个集群的正常运行。
配置观察者方式:
- 在观察者机器上的zoo.cfg中添加peerType=observer
- 在集群每台机器的zoo.cfg中对应观察者机器的server.x=192.168.123.102:2888:2888后面添加":observer"
重启所有机器
登录观察者机器,执行./zkServer.sh status可以看到mode:observer字样,其他是follower或者leader
附:zookeeper的配置说明
参数名 | 说明 |
clientPort | 客户端连接server的端口,即对外服务端口,一般设置为2181吧。 |
dataDir | 存储快照文件snapshot的目录。默认情况下,事务日志也会存储在这里。 其中,x是生成快照时的Zxid。 |
dataLogDir | 事务日志输出目录。 正常运行过程中,针对所有事务操作,在返回客户端“事务成功”的响应前,ZK会确保已经将本次事务操作的事务日志写到磁盘上,只有这样,事务才会生效。 |
tickTime | ZK中的一个时间单元。ZK中所有时间都是以这个时间单元为基础,进行整数倍配置的。例如,session的最小超时时间是2*tickTime。 |
initLimit | Follower在启动过程中,会从Leader同步所有最新数据,然后确定自己能够对外服务的起始状态。Leader允许F在 initLimit 时间内完成这个工作。通常情况下,我们不用太在意这个参数的设置。如果ZK集群的数据量确实很大了,F在启动的时候,从Leader上同步数据的时间也会相应变长,因此在这种情况下,有必要适当调大这个参数了。 |
syncLimit | 在运行过程中,Leader负责与ZK集群中所有机器进行通信,例如通过一些心跳检测机制,来检测机器的存活状态。如果L发出心跳包在syncLimit之后,还没有从F那里收到响应,那么就认为这个F已经不在线了。 |
minSessionTimeout maxSessionTimeout | Session超时时间限制,如果客户端设置的超时时间不在这个范围,那么会被强制设置为最大或最小时间。默认的Session超时时间是在2 * tickTime ~ 20 * tickTime 这个范围 |
snapCount | 每进行snapCount次事务日志输出后,触发一次快照(snapshot), 此时,ZK会生成一个snapshot.*文件,同时创建一个新的事务日志文件log.*。默认是100000。这是一种情况 此外,在产生新Leader时,也会生成新的快照文件,(同时会生成对应的事务文件) |
autopurge.purgeInterval | 3.4.0及之后版本,ZK提供了自动清理事务日志和快照文件的功能,这个参数指定了清理频率,单位是小时,需要配置一个1或更大的整数,默认是0,表示不开启自动清理功能。 |
server.x=[hostname]:nnnnn[:nnnnn] | 这里的x是一个数字,与myid文件中的id是一致的。右边可以配置两个端口,第一个端口用于F和L之间的数据同步和其它通信,第二个端口用于Leader选举过程中投票通信。
|
jute.maxbuffer | 每个节点最大数据量,是默认是1M。 |
globalOutstandingLimit | 最大请求堆积数。默认是1000。ZK运行的时候, 尽管server已经没有空闲来处理更多的客户端请求了,但是还是允许客户端将请求提交到服务器上来,以提高吞吐性能。当然,为了防止Server内存溢出,这个请求堆积数还是需要限制下的。
|
preAllocSize | 预先开辟磁盘空间,用于后续写入事务日志。默认是64M,每个事务日志大小就是64M。 |
electionAlg | 默认为3,即 fast paxos election 选举算法。在3.4版本后,1 2对应的选举算已弃用,所以此项配置不要更改。 |
leaderServes | 默认情况下,Leader是会接受客户端连接,并提供正常的读写服务。但是,如果你想让Leader专注于集群中机器的协调,那么可以将这个参数设置为no,这样一来,会提高整个zk集群性能。 |