目录
客户端 API 操作
前提: 保证 hadoop12、hadoop13、hadoop14 服务器上的 Zookeeper 集群服务端已启动。
IDEA 环境搭建
-
创建一个工程:
zookeeper
-
添加 pom 文件
<dependencies> <dependency> <groupId>junit</groupId> <artifactId>junit</artifactId> <version>RELEASE</version> </dependency> <dependency> <groupId>org.apache.logging.log4j</groupId> <artifactId>log4j-core</artifactId> <version>2.8.2</version> </dependency> <dependency> <groupId>org.apache.zookeeper</groupId> <artifactId>zookeeper</artifactId> <version>3.5.7</version> </dependency> </dependencies>
-
拷贝 log4j.properties 文件到项目根目录
在项目的
src/main/resources
目录下,新建一个文件,命名为 “log4j.properties”,并在文件中填入以下内容:log4j.rootLogger=INFO, stdout log4j.appender.stdout=org.apache.log4j.ConsoleAppender log4j.appender.stdout.layout=org.apache.log4j.PatternLayout log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n log4j.appender.logfile=org.apache.log4j.FileAppender log4j.appender.logfile.File=target/spring.log log4j.appender.logfile.layout=org.apache.log4j.PatternLayout log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
-
创建包名:
com.lzl.zk
-
创建类名称:
zkClient
创建 ZooKeeper 客户端
// 注意:逗号前后不能有空格
private static String connectString = "hadoop12:2181,hadoop13:2181,hadoop14:2181";
private static int sessionTimeout = 2000;
private ZooKeeper zkClient = null;
@Before
public void init() throws Exception {
zkClient = new ZooKeeper(connectString, sessionTimeout, new Watcher() {
@Override
public void process(WatchedEvent watchedEvent) {
// 收到事件通知后的回调函数(用户的业务逻辑)
System.out.println(watchedEvent.getType() + "--" + watchedEvent.getPath());
// 再次启动监听
try {
List<String> children = zkClient.getChildren("/", true);
for (String child : children) {
System.out.println(child);
}
} catch (Exception e) {
e.printStackTrace();
}
}
});
}
创建子节点
// 创建子节点
@Test
public void create() throws Exception {
// 参数 1:要创建的节点的路径; 参数 2:节点数据 ; 参数 3:节点权限 ; 参数 4:节点的类型
String nodeCreated = zkClient.create("/lzl", "shuaige".getBytes(), Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
}
// 测试:在 hadoop12 的 zk 客户端上查看创建节点情况
[zk: localhost:2181(CONNECTED) 16] get -s /lzl
shuaige
获取子节点并监听节点变化
// 获取子节点
@Test
public void getChildren() throws Exception {
List<String> children = zkClient.getChildren("/", true);
for (String child : children) {
System.out.println(child);
}
// 延时阻塞
Thread.sleep(Long.MAX_VALUE);
}
// (1)在 IDEA 控制台上看到如下节点:
// zookeeper
// sanguo
// lzl
// (2)在 hadoop12 的客户端上创建再创建一个节点/lzl1,观察 IDEA 控制台
// [zk: localhost:2181(CONNECTED) 3] create /lzl1 "lzl1"
// (3)在 hadoop12 的客户端上删除节点/lzl1,观察 IDEA 控制台
// [zk: localhost:2181(CONNECTED) 4] delete /lzl1
判断 Znode 是否存在
// 判断 znode 是否存在
@Test
public void exist() throws Exception {
Stat stat = zkClient.exists("/lzl", false);
System.out.println(stat == null ? "not exist" : "exist");
}
客户端向服务端写数据流程
写流程之写入请求直接发送给 Leader 节点
Client ZK Server Follower ZK Server Follower
write | | | |
| | | |
|--------- write -->| | |
| | | |
| |--------- ack ---->| |
| | | |
| | |--------- ack ---->|
| | | |
| | | |
| | |--------- write -->|
| | | |
| | | |
| | | |
| | | |
| | | |
| | | |
| | | |
| | | |
| | |--------- ack ---->|
| | | |
| | | |
| | |--------- ack ---->|
写流程之写入请求发送给 follower 节点
Client ZK Server Follower ZK Server Follower
write | | | |
| | | |
| |--------- write -->| |
| | | |
| | |--------- ack ---->|
| | | |
| | | |
| | |--------- ack ---->|
| | | |
| | |--------- write -->|
| | | |
| | | |
| | | |
| | | |
| | | |
| | | |
| | | |
| | |--------- ack ---->|
| | | |
| | |--------- ack ---->|