Zookeeper知识整理

  • Zookeeper = 文件系统 + 通知机制

特点

  • Zookeeper:一个领导者(Leader),多个跟随者(Follower),组成的集群。
  • 集群中只要有半数以上节点存活,Zookeeper集群就能正常服务。
  • 全局数据一致:每个Server保存一份相同的数据副本,Client无论连接到哪个Server,数据都是一致的。
  • 更新请求顺序进行,来自同一个Client的更新请求按其发送顺序依次执行。
  • 数据更新原子性,一次数据更新要么成功,要么失败。
  • 实时性,在一定时间范围内,Client能读到最新数据。

应用场景

  • 统一命名服务、统一配置管理、统一集群管理、服务器节点动态上下线、软负载均衡

相关命令

#zk启动
[wmj]$ bin/zkServer.sh start
#停止Zookeeper
[wmj]$ bin/zkServer.sh stop
#查看进程是否启动
[wmj]$ jps
#查看状态 进入到 zookeeper-3.4.**目录下
[wmj]$ bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: ****/bin/../conf/zoo.cfg #使用的配置文件
Mode: leader #他是一个leader
#启动客户端
[wmj]$ bin/zkCli.sh
#退出客户端
[zk: localhost:2181(CONNECTED) 0] quit
#停止zk
[wmj]$ bin/zkServer.sh stop
#客户端命令行操作
#启动客户端
[wmj]$ bin/zkCli.sh
#显示所有操作命令
[zk: *** 1] help
#查看当前znode中所包含的内容
[zk: *** 1] ls /
#查看当前节点详细数据
[zk: *** 1] ls2 /
#分别创建2个普通节点
[zk: *** 1] create /sanguo "jinlian"
#获得节点的值
[zk: *** 1] get /sanguo
[zk: *** 1] get /sanguo/shuguo
#创建短暂节点
[zk: *** 1] create -e /sanguo/wuguo
#创建带序号的节点
[zk: *** 1] create -s /sanguo/weiguo/xiaoqiao "jinlian"
#修改节点数据值
[zk: *** 1] set /sanguo/weiguo "simayi"
#节点的值变化监听
[zk: *** 1] get /sanguo watch
#节点的子节点变化监听(路径变化)
[zk: *** 1] ls /sanguo watch
#删除节点
[zk: *** 1] delete /sanguo/jin
#递归删除节点
[zk: *** 1] rmr /sanguo/shuguo
#查看节点状态
[zk: *** 1] stat /sanguo
#退出客户端
[zk: *** 1] quit

配置参数解读

  • 进入到zoo.cfg中有以下几个关键参数

    # 通信心跳数,Zookeeper服务器与客户端心跳时间,单位毫秒
    tickTime=2000
    # LF初始通信时限,集群中的Follower跟随者服务器与Leader领导者服务器之间初始连接时能容忍的最多心跳数(tickTime的数量),用它来限定集群中的Zookeeper服务器连接到Leader的时限。
    initLimit=10
    # LF同步通信时限,集群中Leader与Follower之间的最大响应时间单位,假如响应超过syncLimit * tickTime,Leader认为Follwer死掉,从服务器列表中删除Follwer。
    syncLimit=5
    # 数据文件目录+数据持久化路径
    dataDir=/opt/module/zookeeper-3.4.10/zkData
    # 客户端连接端口  监听客户端连接的端口。
    clientPort=2181
    
    # server.A=B:C:D。
    # A是一个数字,表示这个是第几号服务器;
    # 集群模式下配置一个文件myid,这个文件在dataDir目录下,这个文件里面有一个数据就是A的值,Zookeeper启动时读取此文件,拿到里面的数据与zoo.cfg里面的配置信息比较从而判断到底是哪个server。
    # B是这个服务器的ip地址;
    # C是这个服务器与集群中的Leader服务器交换信息的端口;
    # D是万一集群中的Leader服务器挂了,需要一个端口来重新进行选举,选出一个新的Leader,而这个端口就是用来执行选举时服务器相互通信的端口。
    server.2=hadoop102:2888:3888
    server.3=hadoop103:2888:3888
    server.4=hadoop104:2888:3888
    

选举机制

  • 半数机制:集群中半数以上机器存活,集群可用。所以 Zookeeper 适合安装奇数台服务器。例如,5台服务器有3台存活,集群可用,而只有2台存活,集群不可用。
  • Zookeeper 虽然在配置文件中并没有指定 Master 和 Slave。 但是, Zookeeper 工作时,是有一个节点为 Leader,其他则为 Follower, Leader 是通过内部的选举机制临时产生的。
    • 例子:5台机器依次启动,1启动,选举无法完成;2启动未达到半数,选举无法完成;3启动,超过半数,3为Leader,1、2为Follower,4、5为Follower。

监听器原理

  • 首先要有一个main()线程

  • 在main线程中创建Zookeeper客户端, 这时就会创建两个线程, 一个负责网络连接通信( connet ), 一个负责监听( listener )。

  • 通过connect线程将注册的监听事件发送给Zookeeper。

  • 在Zookeeper的注册监听器列表中将注册的监听事件添加到列表中。

  • Zookeeper监听到有数据或路径变化, 就会将这个消息发送给listener线程。

  • listener线程内部调用了process()方法。

    img

写数据流程

  • Client 向 ZooKeeper 的Server1 上写数据,发送一个写请求。
  • 如果Server1不是Leader,那么Server1 会把接受到的请求进一步转发给Leader,因为每个ZooKeeper的Server里面有一个是Leader。这个Leader 会将写请求广播给各个Server, 比如Server1和Server2,各个Server会将该写请求加入待写队列,并向Leader发送成功信息。
  • 当Leader收到半数以上 Server 的成功信息, 说明该写操作可以执行。Leader会向各个Server 发送提交信息,各个Server收到信息后会落实队列里的写请求, 此时写成功。
  • Server1会进一步通知 Client 数据写成功了,这时就认为整个写操作成功。

参考视频

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值