ZeroMQ消息模型代码实现(Python版本)

  1. ZeroMQ 的背景介绍
    引用官方的说法: “ZMQ (以下 ZeroMQ 简称 ZMQ)是一个简单好用的传输层,像框架一样的一个 socket library,他使得 Socket 编程更加简单、简洁和性能更高。是一个消息处理队列库,可在多个线程、内核和主机盒之间弹性伸缩。ZMQ 的明确目标是“成为标准网络协议栈的一部分,之后进入 Linux 内核”。现在还未看到它们的成功。但是,它无疑是极具前景的、并且是人们更加需要的“传统”BSD 套接字之上的一层封装。ZMQ 让编写高性能网络应用程序极为简单和有趣。”

    近几年有关”Message Queue”的项目层出不穷,知名的就有十几种,这主要是因为后摩尔定律时代,分布式处理逐渐成为主流,业界需要一套标准来解决分布式计算环境中节点之间的消息通信。几年的竞争下来,Apache 基金会旗下的符合 AMQP/1.0标准的 RabbitMQ 已经得到了广泛的认可,成为领先的 MQ 项目。

    与 RabbitMQ 相比,ZMQ 并不像是一个传统意义上的消息队列服务器,事实上,它也根本不是一个服务器,它更像是一个底层的网络通讯库,在 Socket API 之上做了一层封装,将网络通讯、进程通讯和线程通讯抽象为统一的 API 接口。

  2. 安装ZMQ
    $ pip install pyzmq
  3. ZMQ 是什么?
    阅读了 ZMQ 的 Guide 文档后,我的理解是,这是个类似于 Socket 的一系列接口,他跟 Socket 的区别是:普通的 socket 是端到端的(1:1的关系),而 ZMQ 却是可以N:M 的关系,人们对 BSD 套接字的了解较多的是点对点的连接,点对点连接需要显式地建立连接、销毁连接、选择协议(TCP/UDP)和处理错误等,而 ZMQ 屏蔽了这些细节,让你的网络编程更为简单。ZMQ 用于 node 与 node 间的通信,node 可以是主机或者是进程。

  4. 本文的目的
    在集群对外提供服务的过程中,我们有很多的配置,需要根据需要随时更新,那么这个信息如果推动到各个节点?并且保证信息的一致性和可靠性?本文在介绍 ZMQ 基本理论的基础上,试图使用 ZMQ 实现一个配置分发中心。从一个节点,将信息无误的分发到各个服务器节点上,并保证信息正确性和一致性。

  5. ZMQ 的三个基本模型
    ZMQ 提供了三个基本的通信模型,分别是“Request-Reply “,”Publisher-Subscriber“,”Parallel Pipeline”,我们从这三种模式一窥 ZMQ 的究竟
    1. ZMQ 的 Request-Reply
      由 Client 发起请求,并等待 Server 回应请求。请求端发送一个简单的 hello,服务端则回应一个 world。请求端和服务端都可以是 1:N 的模型。通常把 1 认为是 Server ,N 认为是 Client 。ZMQ 可以很好的支持路由功能(实现路由功能的组件叫作 Device),把 1:N 扩展为N:M (只需要加入若干路由节点)。如图 1 所示:

      图1:ZMQ 的 Request-Reply 通信
      1. server代码
        # -*- coding:utf-8 -*-
        __author__ = 'eric.sun'
        import zmq
        import time
        from common import time_utils

        context = zmq.Context()
        socket = context.socket(zmq.REP)
        socket.bind("tcp://*:5555")
        count= 0

        while True:
        # Wait for next request from client
        message = socket.recv()
        count+= 1
        print "Received request: ", message, count

        # Do some 'work'
        time.sleep (1) # Do some 'work'

        # Send reply back to client
        socket.send(time_utils.get_format_timestamp()+" World")

      2. client代码
        # -*- coding:utf-8 -*-
        __author__ = 'eric.sun'
        import zmq

        context = zmq.Context()

        # Socket to talk to server
        print "Connecting to hello world server..."
        socket = context.socket(zmq.REQ)
        socket.connect ("tcp://localhost:5555")

        # Do 10 requests, waiting each time for a response
        for request in range (1,10):
        #print "Sending request ", request,"..."
        socket.send ("Hello")

        # Get the reply.
        message = socket.recv()
        print "Received reply ", request, "[", message, "]"
      3. 从以上的过程,我们可以了解到使用 ZMQ 写基本的程序的方法,需要注意的是:
      1. 服务端和客户端无论谁先启动,效果是相同的,这点不同于 Socket。
      2. 在服务端收到信息以前,程序是阻塞的,会一直等待客户端连接上来。
      3. 服务端收到信息以后,会 send 一个“World”给客户端。值得注意的是一定是 client 连接上来以后,send 消息给 Server,然后 Server 再 rev 然后响应 client,这种一问一答式的。如果 Server 先 send,client 先 rev 是会报错的。
      4. ZMQ 通信通信单元是消息,他除了知道 Bytes 的大小,他并不关心的消息格式。因此,你可以使用任何你觉得好用的数据格式。Xml、Protocol Buffers、Thrift、json 等等。
      5. 虽然可以使用 ZMQ 实现 HTTP 协议,但是,这绝不是他所擅长的。
    1. ZMQ 的 Publish-subscribe 模式
      我们可以想象一下天气预报的订阅模式,由一个节点提供信息源,由其他的节点,接受信息源的信息

      图2:ZMQ 的 Publish-subscribe
      示例代码如下 :
      1. Publisher
        # -*- coding:utf-8 -*-
        __author__ = 'eric.sun'
        import zmq
        import time
        from common import time_utils

        context = zmq.Context()
        socket = context.socket(zmq.PUB)
        socket.bind("tcp://*:5555")

        while True:
        # Wait for next request from client
        message = time_utils.get_format_timestamp()+":Publish message"
        print "Publish Message: ", message
        # Do some 'work'
        time.sleep (1) # Do some 'work'
        # Send reply back to client
        socket.send(message)
      2. Subscriber
        # -*- coding:utf-8 -*-
        __author__ = 'eric.sun'
        import zmq

        context = zmq.Context()

        # Socket to talk to server
        print "Connecting to hello world server..."
        socket = context.socket(zmq.SUB)
        socket.connect ("tcp://localhost:5555")
        socket.setsockopt(zmq.SUBSCRIBE, '')

        # Do 10 requests, waiting each time for a response
        while True:
        #print "Sending request ", request,"...

        # Get the reply.
        message = socket.recv()
        print "Receive Message:"+message

      3. 这段代码讲的是,服务器端生成随机数 zipcode、temperature、relhumidity 分别代表城市代码、温度值和湿度值。然后不断的广播信息,而客户端通过设置过滤参数,接受特定城市代码的信息,收集完了以后,做一个平均值。
        1. 与 Hello World 不同的是,Socket 的类型变成 SOCKET_PUB 和 SOCKET_SUB 类型。
        2.  客户端需要$subscriber->setSockOpt (ZMQ::SOCKOPT_SUBSCRIBE, $filter);设置一个过滤值,相当于设定一个订阅频道,否则什么信息也收不到。
        3. 服务器端一直不断的广播中,如果中途有 Subscriber 端退出,并不影响他继续的广播,当 Subscriber 再连接上来的时候,收到的就是后来发送的新的信息了。这对比较晚加入的,或者是中途离开的订阅者,必然会丢失掉一部分信息,这是这个模式的一个问题,所谓的 Slow joiner。稍后,会解决这个问题。
        4. 但是,如果 Publisher 中途离开,所有的 Subscriber 会 hold 住,等待 Publisher 再上线的时候,会继续接受信息。
    2. ZMQ 的 PipeLine 模型
      想象一下这样的场景,如果需要统计各个机器的日志,我们需要将统计任务分发到各个节点机器上,最后收集统计结果,做一个汇总。PipeLine 比较适合于这种场景,他的结构图,如图 3 所示。

      图3:ZMQ 的 PipeLine 模型
      代码如下:
      1. Parallel task ventilato
        # -*- coding:utf-8 -*-
        __author__ = 'eric.sun'
        # Task ventilator
        # Binds PUSH socket to tcp://localhost:5557
        # Sends batch of tasks to workers via that socket
        #
        # Author: Lev Givon <lev(at)columbia(dot)edu>

        import zmq
        import random
        import time

        try:
        raw_input
        except NameError:
        # Python 3
        raw_input = input

        context = zmq.Context()

        # Socket to send messages on
        sender = context.socket(zmq.PUSH)
        sender.bind("tcp://*:5557")

        # Socket with direct access to the sink: used to syncronize start of batch
        sink = context.socket(zmq.PUSH)
        sink.connect("tcp://localhost:5558")

        print("Press Enter when the workers are ready: ")
        _ = raw_input()
        print("Sending tasks to workers…")

        # The first message is "0" and signals start of batch
        sink.send(b'0')

        # Initialize random number generator
        random.seed()

        # Send 100 tasks
        total_msec = 0
        for task_nbr in range(100):

        # Random workload from 1 to 100 msecs
        workload = random.randint(1, 100)
        total_msec += workload
        message="task "+str(task_nbr)+"_"+str(workload)
        sender.send_string(u'%s' % message)

        print("Total expected cost: %s msec" % total_msec)

        # Give 0MQ time to deliver
        time.sleep(1)

      2. Parallel task worker
        # -*- coding:utf-8 -*-
        __author__ = 'eric.sun'
        # Task worker
        # Connects PULL socket to tcp://localhost:5557
        # Collects workloads from ventilator via that socket
        # Connects PUSH socket to tcp://localhost:5558
        # Sends results to sink via that socket
        #
        # Author: Lev Givon <lev(at)columbia(dot)edu>

        import sys
        import time
        import zmq
        import os

        context = zmq.Context()

        # Socket to receive messages on
        receiver = context.socket(zmq.PULL)
        receiver.connect("tcp://localhost:5557")

        # Socket to send messages to
        sender = context.socket(zmq.PUSH)
        sender.connect("tcp://localhost:5558")

        # Process tasks forever
        while True:
        s = receiver.recv()

        # Simple progress indicator for the viewer
        sys.stdout.write("received task:"+s.split("_")[0]+" will elasped "+str(int(s.split("_")[1])*0.001)+"\n")
        sys.stdout.flush()
        # Do the work
        time.sleep(int(s.split("_")[1])*0.001)
        message="worker pid:"+str(os.getpid())+" task:"+s.split("_")[0]
        # Send results to sink
        sender.send(message)

      3. Parallel task sink
        # -*- coding:utf-8 -*-
        __author__ = 'eric.sun'
        # Task sink
        # Binds PULL socket to tcp://localhost:5558
        # Collects results from workers via that socket
        #
        # Author: Lev Givon <lev(at)columbia(dot)edu>

        import sys
        import time
        import zmq

        context = zmq.Context()

        # Socket to receive messages on
        receiver = context.socket(zmq.PULL)
        receiver.bind("tcp://*:5558")

        # Wait for start of batch
        s = receiver.recv()

        # Start our clock now
        tstart = time.time()

        # Process 100 confirmations
        total_msec = 0
        while True:
        s = receiver.recv()
        sys.stdout.write(s+"\n")
        sys.stdout.flush()

        # Calculate and report duration of batch
        tend = time.time()
        print("Total elapsed time: %d msec" % ((tend-tstart)*1000))

      4. 从程序中,我们可以看到,task ventilator 使用的是 SOCKET_PUSH,将任务分发到 Worker 节点上。而 Worker 节点上,使用 SOCKET_PULL 从上游接受任务,并使用 SOCKET_PUSH 将结果汇集到 Slink。值得注意的是,任务的分发的时候也同样有一个负载均衡的路由功能,worker 可以随时自由加入,task ventilator 可以均衡将任务分发出去。
  1. 其他扩展模式
    1. 级联模式
      通常,一个节点,即可以作为 Server,同时也能作为 Client,通过 PipeLine 模型中的 Worker,他向上连接着任务分发,向下连接着结果搜集的 Sink 机器。因此,我们可以借助这种特性,丰富的扩展原有的三种模式。例如,一个代理 Publisher,作为一个内网的 Subscriber 接受信息,同时将信息,转发到外网,其结构图

      图4:ZMQ 的扩展模式
    2. 多个服务器
      ZMQ 和 Socket 的区别在于,前者支持N:M的连接,而后者则只是1:1的连接,那么一个 Client 连接多个 Server 的情况是怎样的呢,我们通过图 5 来说明

      图5:ZMQ 的N:1的连接情况
      我们假设 Client 有 R1,R2,R3,R4四个任务,我们只需要一个 ZMQ 的 Socket,就可以连接四个服务,他能够自动均衡的分配任务。如图 5 所示,R1,R4自动分配到了节点A,R2到了B,R3到了C。如果我们是N:M的情况呢?这个扩展起来,也不难,如图 6 所示。

      图6:N:M的连接
      我们通过一个中间结点(Broker)来进行负载均衡的功能。我们通过代码了解,其中的 Client 和我们的 Hello World 的 Client 端是一样的,而 Server 端的不同是,他不需要监听端口,而是需要连接 Broker 的端口,接受需要处理的信息。所以,我们重点阅读 Broker 的代码:
      1. Client代码
        __author__ = 'eric.sun'
        #
        # Request-reply client in Python
        # Connects REQ socket to tcp://localhost:5559
        # Sends "Hello" to server, expects "World" back
        #
        import zmq

        # Prepare our context and sockets
        context = zmq.Context()
        socket = context.socket(zmq.REQ)
        socket.connect("tcp://localhost:5559")

        # Do 10 requests, waiting each time for a response
        for request in range(1,11):
        socket.send(b"Hello")
        message = socket.recv()
        print("Received reply %s [%s]" % (request, message))

      2. Broker代码 
        __author__ = 'eric.sun'
        # Simple request-reply broker
        #
        # Author: Lev Givon <lev(at)columbia(dot)edu>

        import zmq

        # Prepare our context and sockets
        context = zmq.Context()
        frontend = context.socket(zmq.ROUTER)
        backend = context.socket(zmq.DEALER)
        frontend.bind("tcp://*:5559")
        backend.bind("tcp://*:5560")

        # Initialize poll set
        poller = zmq.Poller()
        poller.register(frontend, zmq.POLLIN)
        poller.register(backend, zmq.POLLIN)

        # Switch messages between sockets
        while True:
        socks = dict(poller.poll())

        if socks.get(frontend) == zmq.POLLIN:
        message = frontend.recv_multipart()
        backend.send_multipart(message)

        if socks.get(backend) == zmq.POLLIN:
        message = backend.recv_multipart()
        frontend.send_multipart(message)

      3. Serverce代码
        __author__ = 'eric.sun'
        #
        # Request-reply service in Python
        # Connects REP socket to tcp://localhost:5560
        # Expects "Hello" from client, replies with "World"
        #
        import zmq

        context = zmq.Context()
        socket = context.socket(zmq.REP)
        socket.connect("tcp://localhost:5560")

        while True:
        message = socket.recv()
        print("Received request: %s" % message)
        socket.send(b"World")

      4. Broker 监听了两个端口,接受从多个 Client 端发送过来的数据,并将数据,转发给 Server。在 Broker 中,我们监听了两个端口,使用了两个 Socket,那么对于多个 Socket 的情况,我们是不需要通过轮询的方式去处理数据的,在之前,我们可以使用 libevent 实现,异步的信息处理和传输。而现在,我们只需要使用 ZMQ 的$poll->poll 以实现多个 Socket 的异步处理。
    3. 进程间的通信
      ZMQ 不仅能通过 TCP 完成节点间的通信,也可以通过 Socket 文件完成进程间的通信。如图 7 所示,我们 fork 三个 PHP 进程,将进程 1 的数据,通过 Socket 文件发送到进程3。

      图7:进程间的通信
      1. 代码如下:
        # -*- coding:utf-8 -*-
        '''
        进程通信:When you start making multithreaded applications with ZeroMQ,
        you'll encounter the question of how to coordinate your threads.
        Though you might be tempted to insert "sleep" statements,
        or use multithreading techniques such as semaphores or mutexes,
        the only mechanism that you should use are ZeroMQ messages.
        Remember the story of The Drunkards and The Beer Bottle.
        Let's make three threads that signal each other when they are ready.
        In this example, we use PAIR sockets over the inproc transport:'''
        __author__ = 'eric.sun'

        import threading
        import zmq

        def step1(context=None):
        """Step 1"""
        context = context or zmq.Context.instance()
        # Signal downstream to step 2
        sender = context.socket(zmq.PAIR)
        sender.connect("inproc://step2")
        message="step1 ready"
        sender.send(message)


        def step2(context=None):
        """Step 2"""
        context = context or zmq.Context.instance()
        # Bind to inproc: endpoint, then start upstream thread
        receiver = context.socket(zmq.PAIR)
        receiver.bind("inproc://step2")

        # Wait for signal
        msg = receiver.recv()
        print msg
        # Signal downstream to step 3
        sender = context.socket(zmq.PAIR)
        sender.connect("inproc://step3")
        message="step2 ready"
        sender.send(message)

        def step3(context=None):
        # Prepare our context and sockets
        context = zmq.Context.instance()
        # Bind to inproc: endpoint, then start upstream thread
        receiver = context.socket(zmq.PAIR)
        receiver.bind("inproc://step3")
        # Wait for signal
        string= receiver.recv()
        print string
        print "step3 ready"
        print("Test successful!")
        receiver.close()
        context.term()


        def main():
        """ server routine """

        thread1 = threading.Thread(target=step1)
        thread1.start()

        thread2 = threading.Thread(target=step2)
        thread2.start()

        thread3 = threading.Thread(target=step3)
        thread3.start()
        if __name__ == "__main__":
        main()
    4. 利用 ZeroMQ 实现一个配置推送中心
      当我们将 WEB 代码部署到集群上的时候,如果需要实时的将最新的配置信息,主动的推送到各个机器节点。在此过程中,我们一定要保证,各个节点收到的信息的一致性和正确性,如果使用 HTTP,由于他的无状态性,我们无法保证信息的一致性,当然,你可以使用 HTTP 来实现,只是更复杂,为什么不用 ZMQ?他能让你更简单的实现这些功能。
      我们使用 ZMQ 的信息订阅模式。在那个模式中,我们注意到,对于后来的加入节点,始终会丢失在他加入之前,已经发送的信息(Slow joiner)。我们可以开启另外一个 ZMQ 的通信通道,用于报告当前节点的情况(节点的身份、准备状态等),其结构如图 8 所示。

      图8:扩展 ZMQ 的订阅者模式
      我们通过$context->getSocket (ZMQ::SOCKET_REQ);设置一个新的 Request-Reply 连接,来用于 Subscriber 向 Publisher 报告自己的身份信息,而 Publisher 则等待所有的 Subscriber 都连接上的时候,再选择 Publish 自己的信息。
      1. Subscriber 端的程序如下:
        __author__ = 'eric.sun'
        #
        # Synchronized subscriber
        #
        import time

        import zmq

        def main():
        context = zmq.Context()

        # First, connect our subscriber socket
        subscriber = context.socket(zmq.SUB)
        subscriber.connect('tcp://localhost:5561')
        subscriber.setsockopt(zmq.SUBSCRIBE, b'')

        time.sleep(1)

        # Second, synchronize with publisher
        syncclient = context.socket(zmq.REQ)
        syncclient.connect('tcp://localhost:5562')

        # send a synchronization request
        syncclient.send(b'')

        # wait for synchronization reply
        syncclient.recv()

        # Third, get our updates and report how many we got
        nbr = 0
        while True:
        msg = subscriber.recv()
        if msg == b'END':
        break
        nbr += 1

        print ('Received %d updates' % nbr)

        if __name__ == '__main__':
        main()

      2. Publisher 端的程序如下:
        '''
        This is how the application will work:

        1,The publisher knows in advance how many subscribers it expects. This is just a magic number it gets from somewhere.
        2,The publisher starts up and waits for all subscribers to connect. This is the node coordination part. Each subscriber subscribes and then tells the publisher it's ready via another socket.
        3,When the publisher has all subscribers connected, it starts to publish data.
        '''
        __author__ = 'eric.sun'
        #
        # Synchronized publisher
        #
        import zmq

        # We wait for 10 subscribers
        SUBSCRIBERS_EXPECTED = 10

        def main():
        context = zmq.Context()

        # Socket to talk to clients
        publisher = context.socket(zmq.PUB)
        # set SNDHWM, so we don't drop messages for slow subscribers
        publisher.sndhwm = 1100000
        publisher.bind('tcp://*:5561')

        # Socket to receive signals
        syncservice = context.socket(zmq.REP)
        syncservice.bind('tcp://*:5562')

        # Get synchronization from subscribers
        subscribers= 0
        while subscribers< SUBSCRIBERS_EXPECTED:
        # wait for synchronization request
        msg = syncservice.recv()
        # send synchronization reply
        syncservice.send(b'')
        subscribers+= 1
        print("+1 subscriber (%i/%i)" % (subscribers, SUBSCRIBERS_EXPECTED))

        # Now broadcast exactly 1M updates followed by END
        for i in range(1000000):
        publisher.send(b'Rhubarb')

        publisher.send(b'END')

        if __name__ == '__main__':
        main()

      3. 当然,这只是一个大体的思路,如果应用到实际的成产环境中,还需要考虑更多的问题,包含稳定性,容错等等。然而,ZMQ 由于高并发,以及稳定性和易用性,前景不错,他的目标是进入 Linux 内核,我们期待那一天的到来。
  2. 参考资料 :http://zguide.zeromq.org/page:all ZeroMQ 的 guide 文档
  • 7
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值