一、RabbitMQ
1、进程间通信问题
在某些情况下,我们机器上不同的进程可能需要通信,但是我们知道,进程中的数据都是独享的,不同进程是无法访问其他进程内部的数据的,那我们就需要借助一个第三方的中介来实现数据通信,其中我想到的可能采用的方法有如下几种:
a、通过文件,将要交互的信息写入文件,从而实现数据通信和共享(例如使用json)
b、通过socket,程序间起一个socket,通过socket发送、接收数据
c、通过第三方软件实现,将要发送的数据发送给第三方软件,对方再到该软件中取数据,比如使用rabbimtmq、redis、mysql、memcache等
上述三种方法中,通过文件来实现交互很明显效率低下,因为需要频繁操作硬盘上的数据,所以速度最慢,不适用于需要频繁交互信息的系统,第二种方法效率其实很高,但是如果有多个程序都需要进行通信,那么两两程序间都得写socket,显然不合理,所以,我们应该采用第三种方式。
2、RabbitMQ介绍
AMQP,即Advanced Message Queuing Protocol,高级消息队列协议,是应用层协议的一个开放标准,为面向消息的中间件设计。消息中间件主要用于组件之间的解耦,消息的发送者无需知道消息使用者的存在,反之亦然。AMQP的主要特征是面向消息、队列、路由(包括点对点和发布/订阅)、可靠性、安全。
RabbitMQ是一个开源的AMQP实现,服务器端用Erlang语言编写,支持多种客户端,如:Python、Ruby、.NET、Java、JMS、C、PHP、ActionScript、XMPP、STOMP等,支持AJAX。用于在分布式系统中存储转发消息,在易用性、扩展性、高可用性等方面表现不俗。
3、安装RabbitMQ及pika模块
安装过程请百度,此处不再赘述
4、通信方式
1)、基础收发
一个发送端,一个接收端,发送端向rabbitmq中发数据,接收端从队列中收数据
发送端代码有如下几步:
a、实例化一个连接 connect = pika.BlockingConnection(pika.ConnectionParameters("IP地址"))
b、实例化一个频道 channel = connect.channel()
c、实例化一个队列 channel.queue_declare(queue="队列名称")
d、发送数据 channel.basic_publish(exchange='',routing_key='队列名称',body='内容')
e、关闭连接 connect.close()
接收端代码有如下几步:
a、实例化一个连接 connect = pika.BlockingConnection(pika.ConnectionParameters("IP地址"))
b、实例化一个频道 channel = connect.channel()
c、实例化一个队列 channel.queue_declare(queue="队列名称"),此处的队列名称就是要接收的队列
d、定义回调函数,此回调函数就是在收到数据后要执行的函数 def opt(ch,method,properties,body),回调函数的参数是固定的
e、定义接收参数channel.basic_consume(回调函数,queue="队列名称",no_ack=True)
f、开始接收 channel.start_consuming()
来看代码:
import pika connect = pika.BlockingConnection(pika.ConnectionParameters("localhost")) channel = connect.channel() channel.queue_declare(queue="q1") channel.basic_publish( exchange="", routing_key="q1", body="hello!" ) print("send done!") connect.close()
#!/usr/bin/env python3 # -*- coding:utf-8 -*- import pika connect = pika.BlockingConnection(pika.ConnectionParameters("localhost")) channel = connect.channel() channel.queue_declare(queue="q1") def opt(ch,method,properties,body): print("have receved %s" % body) channel.basic_consume( opt, queue="q1", no_ack=True ) channel.start_consuming()
一个发送端发送数据,可以由多个接收端接收数据,此时接收端接收数据采用平均轮询的方式来接收,先连接进去的先接收,依次轮询。
2)、持久化
持久化有两步:
a、队列持久化
b、消息持久化
做持久化的时候,队列都是需要持久化的,如果不持久化队列,那队列中的消息也会随着rabbitmq的重启而丢失,来看代码:
#!/usr/bin/env python3 # -*- coding:utf-8 -*- import pika connect = pika.BlockingConnection(pika.ConnectionParameters("localhost")) channel = connect.channel() channel.queue_declare(queue="q2",durable=True) channel.basic_publish( exchange="", routing_key="q2", body="durable date", properties=pika.BasicProperties( delivery_mode=2 ) ) print("send done!") connect.close()
3)、客户端回复确认信息
假设发送端发送数据后,接收端突然断掉连接,那么此时接收端没有收到数据,但是rabbitmq却认为数据已经被发送出去了,那此时该数据就会丢失,如果这个数据很重要,发送端不能随意重发,那么这个结果就很严重,如何避免这个情况呢?那就需要让接收端收到数据后给rabbitmq返回一个ACK消息,告知其的确收到了数据,此时rabbitmq再将数据从队列中删除,这样就可以避免数据丢失的问题了,这一切rabbitmq也是可以实现的,来看代码:
#!/usr/bin/env python3 # -*- coding:utf-8 -*- import pika connect = pika.BlockingConnection(pika.ConnectionParameters("localhost")) channel = connect.channel() def callback(ch,method,properties,body): print("recv:" , body.decode()) ch.basic_ack(delivery_tag=method.delivery_tag) #发送ACK确认消息 channel.basic_consume( callback, queue="q2" ) channel.start_consuming()
4)、权重分发
刚才我们知道,如果有多个接收端接收数据,rabbitmq会以轮询的方式将数据发送给接收端的机器,如果这些机器的配置不同,那么可能就会导致配置低的机器上处理的数据还没有处理完,新的数据就进来了,从而导致数据堆积,而配置高的机器在处理时却一直很空闲,所以我们这里可以在接收端添加一行代码,告诉rabbitmq,如果我当前处理的消息没处理完,就不要给我发消息,这种方式类似于负载均衡策略里按权重分配请求,来看代码:
#!/usr/bin/env python3 # -*- coding:utf-8 -*- import pika,time connect = pika.BlockingConnection(pika.ConnectionParameters("localhost")) channel = connect.channel() def callback(ch,method,properties,body): print("recv:",body.decode()) time.sleep(60) #sleep 60秒,模拟处理数据过程,处理完成后返回确认 ch.basic_ack(delivery_tag=method.delivery_tag) print("send ack done!") channel.basic_qos(prefetch_count=1) #此处表示如果我有一个正在处理的消息,就不要给我发新数据 channel.basic_consume( callback, queue="q2" ) channel.start_consuming()
5)、消息发布与订阅
上面所有的收发过程都是发送端发送到固定的一个queue中,然后接收端从指定的queue中取数据,如果想要给某些queue发送一条广播消息,此时就用到了exchange(转发器),需要接收的queue绑定在这些exchange上,就可以接收广播的信息了,发送端此种发送方式称为“消息发布”,接收端这种接收方式称为“订阅”。
Exchange在定义的时候是有类型的,以决定到底是哪些Queue符合条件,可以接收消息:
a、fanout: 所有bind到此exchange的queue都可以接收消息
b、direct: 通过routingKey和exchange决定的那个唯一的queue可以接收消息
c、topic:所有符合routingKey(此时可以是一个表达式)的routingKey所bind的queue可以接收消息
d、headers: 通过headers 来决定把消息发给哪些queue
来看代码:
#!/usr/bin/env python3 # -*- coding:utf-8 -*- import pika connect = pika.BlockingConnection(pika.ConnectionParameters("127.0.0.1")) channel = connect.channel() channel.exchange_declare( #声明使用exchange来创建queue exchange="broadcast", #声明一个exchange名称 type="fanout" #exchange模式为fanout模式 ) channel.basic_publish( exchange="broadcast", #消息发到该exchange中 routing_key="", body="This is a broadcast message!" ) print("broadcast send done!") connect.close()
#!/usr/bin/env python3 # -*- coding:utf-8 -*- import pika connect = pika.BlockingConnection( pika.ConnectionParameters("localhost") ) channel = connect.channel() channel.exchange_declare( exchange="broadcast", type="fanout" ) #生成一个随机queue,rabbit会随机分配一个名字,exclusive=True会在使用此queue的消费者断开后,自动将queue删除 random_queue = channel.queue_declare(exclusive=True) #获取随机生成的队列的名称 queue_name = random_queue.method.queue #将队列绑定到相应的exchange上,用于接收广播 channel.queue_bind( exchange="broadcast", queue=queue_name ) def callback(ch,method,properties,body): print("recv broadcast:",body.decode()) ch.basic_ack(delivery_tag=method.delivery_tag) channel.basic_consume( callback, queue=queue_name, ) channel.start_consuming()
运行代码的时候我们可能会发现一个问题,一定要先运行订阅端的程序,消息发布端运行时订阅端才能收到,如果消息发布时订阅端没有运行或没有接收,则发送完成后消息不会保留。
6)、关键字接收
我们可以将队列绑定到关键字上,消息发给exchange以后,由exchange根据关键字来转发给对应的队列。
#!/usr/bin/env python3 # -*- coding:utf-8 -*- import pika import sys connect = pika.BlockingConnection(pika.ConnectionParameters("localhost")) channel = connect.channel() channel.exchange_declare( exchange="keys", type="direct" ) log_level = sys.argv[1] if len(sys.argv) > 1 else 'info' channel.basic_publish( exchange="keys", routing_key=log_level, body="This is a log level %s" % log_level ) print("send log_level %s done" % log_level) connect.close()
#!/usr/bin/env python3 # -*- coding:utf-8 -*- import pika import sys connect = pika.BlockingConnection(pika.ConnectionParameters("localhost")) channel = connect.channel() channel.exchange_declare( exchange="keys", type="direct" ) random_queue = channel.queue_declare(exclusive=True) queue_name = random_queue.method.queue log_level_list = sys.argv[1:] if not log_level_list: sys.stderr.write("Usage:%s [info] [waring] [error]\n" % sys.argv[0]) sys.exit(1) for log_level in log_level_list: channel.queue_bind( exchange="keys", queue=queue_name, routing_key=log_level ) def callback(ch,method,propreties,body): print("recv log") ch.basic_ack(delivery_tag=method.delivery_tag) channel.basic_consume( callback, queue=queue_name ) channel.start_consuming()
7)、匹配接收
除了上述根据关键字分发数据的方式外,还可以通过表达式匹配来分发。
#!/usr/bin/env python3 # -*- coding:utf-8 -*- import pika import sys connect = pika.BlockingConnection(pika.ConnectionParameters("localhost")) channel = connect.channel() channel.exchange_declare( exchange="reg", type="topic" ) rout_key = sys.argv[1] if len(sys.argv) > 1 else "*.info" channel.basic_publish( exchange="reg", routing_key=rout_key, body="%s message" % rout_key ) print("send done") connect.close()
8)、Remote procedure call (RPC)
RPC,远程程序调用,假设有两个程序,A程序想要远程调用服务器上的B程序来完成一项任务,A程序向rabbitmq中发送一个消息,B程序获取到这个消息后,对消息做一系列的操作,然后将处理结果再通过rabbitmq反馈给程序A,这个过程就是一次远程程序调用。
这个过程中,rabbitmq接收端作为处理该操作的server端,而rabbitmq的发送端是该操作的client端,例如如下求解斐波那契数列的函数,来看代码:
#!/usr/bin/env python3 # -*- coding:utf-8 -*- import pika import uuid connect = pika.BlockingConnection(pika.ConnectionParameters("localhost")) channel = connect.channel() channel.queue_declare(queue="rpc_queue") #定义计算斐波那契数列的函数 def fib(n): if n == 0: return 0 elif n == 1: return 1 else: return fib(n-1) + fib(n-2) #定义发送数据的回调函数 def on_request(ch,method,properties,body): #从队列中获取到的要求的斐波那契数列值 n = int(body) #计算 result = fib(n) #向接收结果的队列中发送计算结果 ch.basic_publish( exchange="", #定义要发送到哪个队列中,method.reply_to是客户端请求时一起发送过来的用于接收结果的队列名 routing_key=properties.reply_to, #发送结果回去时要将客户端随着请求一起发送过来的标记请求的标识符一起发回去 properties=pika.BasicProperties(correlation_id=properties.correlation_id), body=str(result) ) #发送ACK给客户端 ch.basic_ack(delivery_tag=method.delivery_tag) channel.basic_qos(prefetch_count=1) #从rpc_queue队列中获取请求 channel.basic_consume( on_request, queue="rpc_queue" ) channel.start_consuming() ''' 程序执行过程是: 1、从rpc_queue接收消息,此消息中包含客户端需要计算的数据,客户端此次操作的标识符,用于接收回复消息使用的队列 2、接收到消息后处理数据 3、将结果发回接收结果的队列 4、发送确认ACK提示客户端请求以收到 '''
#!/usr/bin/env python3 # -*- coding:utf-8 -*- import pika import uuid class FibonacciRpcClient(object): def __init__(self): self.connect = pika.BlockingConnection(pika.ConnectionParameters("localhost")) self.channel = self.connect.channel() #生成一个随机队列用于接收结果 result = self.channel.queue_declare(exclusive=True) #获取这个随机队列的名字 self.response_qname = result.method.queue self.channel.basic_consume( #收到数据后调用回调函数 self.on_response, #声明使用的接收结果队列 queue=self.response_qname ) def on_response(self,ch,method,propreties,body): #如果收到的确认ID和发送出去的确认ID不同,代表收到的不是刚才请求的结果,反之则说明收到的结果的确是上次的结果 if self.corr_id == propreties.correlation_id: self.response = body def call(self,n): self.response = None #生成一个确认ID self.corr_id = str(uuid.uuid4()) self.channel.basic_publish( exchange="", #向rpc_queue中发送bady routing_key="rpc_queue", properties=pika.BasicProperties( #告诉服务端回复结果时使用的队列 reply_to=self.response_qname, #告诉服务器回复结果时使用的确认ID correlation_id=self.corr_id ), body=str(n) ) while self.response is None: #self.connect.process_data_events()相当于无阻塞的start_consuming() self.connect.process_data_events() return int(self.response) fab = FibonacciRpcClient() value = int(input("请输入要求斐波那契数列第几位:")) res = fab.call(value) print("结果是:",res) """ 程序执行过程是: 1、建立连接,声明接收结果的队列 2、发送消息给队列,将要处理的数据发送出去,其中携带回复数据时要用到的队列及确认ID 3、开始无阻塞的接收数据,直到接收到数据为止 4、打印结果 """
二、Redis
1、redis介绍
Redis是一个开源的使用ANSI C语言编写、支持网络、可基于内存亦可持久化的日志型、Key-Value数据库,并提供多种语言的API。redis是一个key-value存储系统。和Memcached类似,它支持存储的value类型相对更多,包括string(字符串)、list(链表)、set(集合)、zset(sorted set --有序集合)和hash(哈希类型)。这些数据类型都支持push/pop、add/remove及取交集并集和差集及更丰富的操作,而且这些操作都是原子性的。在此基础上,redis支持各种不同方式的排序。与memcached一样,为了保证效率,数据都是缓存在内存中。区别的是redis会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件,并且在此基础上实现了master-slave(主从)同步。
2、redis连接方式
1>单连接模式
每次操作维护一个连接,类似于短连接
#!/usr/bin/env python3 # -*- coding:utf-8 -*- import redis r = redis.Redis(host="139.59.249.94",port=6379) r.set("name","zhangsan") print(r.get("name").decode())
2>连接池方式
维护一个连接池,pool来管理对一个redis server的所有连接,避免每次建立、释放连接的开销。默认,每个Redis实例都会维护一个自己的连接池。可以直接建立一个连接池,然后作为参数传入Redis,这样就可以实现多个Redis实例共享一个连接池。
#!/usr/bin/env python3 # -*- coding:utf-8 -*- import redis pool = redis.ConnectionPool(host="139.59.249.94",port=6379) r = redis.Redis(connection_pool=pool) r.set("name","张三") print(r.get("name").decode())
3、字符串
set(name, value, ex=None, px=None, nx=False, xx=False)
在Redis中设置值,默认,不存在则创建,存在则修改 参数: ex,过期时间(秒) px,过期时间(毫秒) nx,如果设置为True,则只有name不存在时,当前set操作才执行 xx,如果设置为True,则只有name存在时,岗前set操作才执行 setnx(name, value) 设置值,只有name不存在时,执行设置操作(添加) setex(name, value, time) 设置值 参数: time,过期时间(数字秒 或 timedelta对象) psetex(name, time_ms, value) 设置值 参数: time_ms,过期时间(数字毫秒 或 timedelta对象) mset(*args, **kwargs) 批量设置值 如: mset(k1='v1', k2='v2') 或 mget({'k1': 'v1', 'k2': 'v2'}) get(name) 获取值 mget(keys, *args) 批量获取 如: mget("name","name1") 或 r.mget(["name","name1"]) getset(name, value) 设置新值并获取原来的值 getrange(key, start, end) 获取子序列(根据字节获取,非字符) 参数: name,Redis 的 name start,起始位置(字节) end,结束位置(字节) 如: "张三" ,0-2表示 "张" setrange(name, offset, value) 修改字符串内容,从指定字符串索引开始向后替换(新值太长时,则向后添加) 参数: offset,字符串的索引,字节(一个汉字三个字节) value,要设置的值 setbit(name, offset, value) 对name对应值的二进制表示的位进行操作 参数: name,redis的name offset,位的索引(将值变换成二进制后再进行索引) value,值只能是 1 或 0 注:如果在Redis中有一个对应: n1 = "foo", 那么字符串foo的二进制表示为:01100110 01101111 01101111 所以,如果执行 setbit('n1', 7, 1),则就会将第7位设置为1, 那么最终二进制则变成 01100111 01101111 01101111,即:"goo" 扩展,转换二进制表示: source = "foo" for i in source: num = ord(i) print bin(num).replace('b','') 特别的,如果source是汉字怎么办? 答:对于utf-8,每一个汉字占3个字节,那么则有 9个字节 对于汉字,for循环时候会按照字节迭代,那么在迭代时,将每一个字节转换十进制数,然后再将十进制数转换成二进制 getbit(name, offset) 获取name对应的值的二进制表示中的某位的值 (0或1) bitcount(key, start=None, end=None) 获取name对应的值的二进制表示中 1 的个数 参数: key,Redis的name start,位起始位置 end,位结束位置 bitop(operation, dest, *keys) 获取多个值,并将值做位运算,将最后的结果保存至新的name对应的值 参数: operation,AND(并)、OR(或)、NOT(非)、XOR(异或) dest, 新的Redis的name *keys,要查找的Redis的name 如: bitop("AND", 'new_name','n1','n2','n3') 获取Redis中n1,n2,n3对应的值,然后讲所有的值做位运算(求并集),然后将结果保存new_name对应的值中 strlen(name) 返回name对应值的字节长度(一个汉字3个字节) incr(self, name, amount=1) 自增name对应的值,当name不存在时,则创建name=amount,否则,则自增。 参数: name,Redis的name amount,自增数(必须是整数) 注:同incrby incrbyfloat(self, name, amount=1.0) 自增name对应的值,当name不存在时,则创建name=amount,否则,则自增。 参数: name,Redis的name amount,自增数(浮点型) decr(self, name, amount=1) 自减name对应的值,当name不存在时,则创建name=amount,否则,则自减。 参数: name,Redis的name amount,自减数(整数) append(key, value) 在redis name对应的值后面追加内容 参数: key, redis的name value, 要追加的字符串
使用setbit、bitcount可以实现一个很吊炸天的功能,那就是计算同时在线人数,原理就是在redis中设置一个key,每个用户登录时使用唯一的uid来设置对应的二进制位为1,注销则设置该位为0 ,计算同时在线人数的时候使用bitcount来计算这个key中1的个数就是同时在线的人数了。
#!/usr/bin/env python3 # -*- coding:utf-8 -*- import redis pool = redis.ConnectionPool(host="139.59.249.94",port=6379) r = redis.Redis(connection_pool=pool) uid1 = 1098 uid2 = 1982 uid3 = 1876 r.setbit("online",uid1,1) r.setbit("online",uid2,1) r.setbit("online",uid3,0) online_num = r.bitcount("online") print("Online number is:" , online_num) 运行结果: Online number is: 2
4、哈希操作
hset(name,key,value) name对应的hash中设置一个键值对(不存在,则创建;否则,修改) 参数: name,redis的name key,name对应的hash中的key value,name对应的hash中的value 注: hsetnx(name,key,value),当name对应的hash中不存在当前key时则创建(相当于添加) hmset(name, mapping) 在name对应的hash中批量设置键值对 参数: name,redis的name mapping,字典,如:{'k1':'v1', 'k2': 'v2'} 如: r.hmset('xx', {'k1':'v1', 'k2': 'v2'}) hget(name,key) 在name对应的hash中获取根据key获取value hmget(name, keys, *args) 在name对应的hash中获取多个key的值 参数: name,reids对应的name keys,要获取key集合,如:['k1', 'k2', 'k3'] *args,要获取的key,如:k1,k2,k3 如: r.mget('xx', ['k1', 'k2']) 或 print(r.hmget('xx', 'k1', 'k2')) hgetall(name) 获取name对应hash的所有键值 hlen(name) 获取name对应的hash中键值对的个数 hkeys(name) 获取name对应的hash中所有的key的值 hvals(name) 获取name对应的hash中所有的value的值 hexists(name, key) 检查name对应的hash是否存在当前传入的key hdel(name,*keys) 将name对应的hash中指定key的键值对删除 hincrby(name, key, amount=1) 自增name对应的hash中的指定key的值,不存在则创建key=amount 参数: name,redis中的name key, hash对应的key amount,自增数(整数) hincrbyfloat(name, key, amount=1.0) 自增name对应的hash中的指定key的值,不存在则创建key=amount 参数: name,redis中的name key, hash对应的key amount,自增数(浮点数) 自增name对应的hash中的指定key的值,不存在则创建key=amount hscan(name, cursor=0, match=None, count=None) 增量式迭代获取,对于数据大的数据非常有用,hscan可以实现分片的获取数据,并非一次性将数据全部获取完,从而放置内存被撑爆 参数: name,redis的name cursor,游标(基于游标分批取获取数据) match,匹配指定key,默认None 表示所有的key count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数 如: 第一次:cursor1, data1 = r.hscan('xx', cursor=0, match=None, count=None) 第二次:cursor2, data1 = r.hscan('xx', cursor=cursor1, match=None, count=None) ... 直到返回值cursor的值为0时,表示数据已经通过分片获取完毕 hscan_iter(name, match=None, count=None) 利用yield封装hscan创建生成器,实现分批去redis中获取数据 参数: match,匹配指定key,默认None 表示所有的key count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数 如: for item in r.hscan_iter('xx'): print(item)
5、列表操作
redis中的List在在内存中按照一个name对应一个List来存储。
lpush(name,values) 在name对应的list中添加元素,每个新的元素都添加到列表的最左边 如: r.lpush('oo', 11,22,33) 保存顺序为: 33,22,11 扩展: rpush(name, values) 表示从右向左操作 lpushx(name,value) 在name对应的list中添加元素,只有name已经存在时,值添加到列表的最左边 更多: rpushx(name, value) 表示从右向左操作 llen(name) name对应的list元素的个数 linsert(name, where, refvalue, value)) 在name对应的列表的某一个值前或后插入一个新值 参数: name,redis的name where,BEFORE或AFTER refvalue,标杆值,即:在它前后插入数据 value,要插入的数据 r.lset(name, index, value) 对name对应的list中的某一个索引位置重新赋值 参数: name,redis的name index,list的索引位置 value,要设置的值 r.lrem(name, value, num) 在name对应的list中删除指定的值 参数: name,redis的name value,要删除的值 num,num=0,删除列表中所有的指定值; num=2,从前到后,删除2个; num=-2,从后向前,删除2个 lpop(name) 在name对应的列表的左侧获取第一个元素并在列表中移除,返回值则是第一个元素 更多: rpop(name) 表示从右向左操作 lindex(name, index) 在name对应的列表中根据索引获取列表元素 lrange(name, start, end) 在name对应的列表分片获取数据 参数: name,redis的name start,索引的起始位置 end,索引结束位置 ltrim(name, start, end) 在name对应的列表中移除没有在start-end索引之间的值 参数: name,redis的name start,索引的起始位置 end,索引结束位置 rpoplpush(src, dst) 从一个列表取出最右边的元素,同时将其添加至另一个列表的最左边 参数: src,要取数据的列表的name dst,要添加数据的列表的name blpop(keys, timeout) 将多个列表排列,按照从左到右去pop对应列表的元素 参数: keys,redis的name的集合 timeout,超时时间,当元素所有列表的元素获取完之后,阻塞等待列表内有数据的时间(秒), 0 表示永远阻塞 更多: r.brpop(keys, timeout),从右向左获取数据 brpoplpush(src, dst, timeout=0) 从一个列表的右侧移除一个元素并将其添加到另一个列表的左侧 参数: src,取出并要移除元素的列表对应的name dst,要插入元素的列表对应的name timeout,当src对应的列表中没有数据时,阻塞等待其有数据的超时时间(秒),0 表示永远阻塞 自定义增量迭代 由于redis类库中没有提供对列表元素的增量迭代,如果想要循环name对应的列表的所有元素,那么就需要: 1、获取name对应的所有列表 2、循环列表 但是,如果列表非常大,那么就有可能在第一步时就将程序的内容撑爆,所有有必要自定义一个增量迭代的功能: def list_iter(name): """ 自定义redis列表增量迭代 :param name: redis中的name,即:迭代name对应的列表 :return: yield 返回 列表元素 """ list_count = r.llen(name) for index in xrange(list_count): yield r.lindex(name, index) 使用 for item in list_iter('pp'): print(item)
6、无序列表
Set集合就是不允许重复的列表
sadd(name,values) name对应的集合中添加元素 scard(name) 获取name对应的集合中元素个数 sdiff(keys, *args) 在第一个name对应的集合中且不在其他name对应的集合的元素集合 sdiffstore(dest, keys, *args) 获取第一个name对应的集合中且不在其他name对应的集合,再将其新加入到dest对应的集合中 sinter(keys, *args) 获取多一个name对应集合的并集 sinterstore(dest, keys, *args) 获取多一个name对应集合的并集,再讲其加入到dest对应的集合中 sismember(name, value) 检查value是否是name对应的集合的成员 smembers(name) 获取name对应的集合的所有成员 smove(src, dst, value) 将某个成员从一个集合中移动到另外一个集合 spop(name) 从集合的右侧(尾部)移除一个成员,并将其返回 srandmember(name, numbers) 从name对应的集合中随机获取 numbers 个元素 srem(name, values) 在name对应的集合中删除某些值 sunion(keys, *args) 获取多一个name对应的集合的并集 sunionstore(dest,keys, *args) 获取多一个name对应的集合的并集,并将结果保存到dest对应的集合中 sscan(name, cursor=0, match=None, count=None) sscan_iter(name, match=None, count=None) 同字符串的操作,用于增量迭代分批获取元素,避免内存消耗太大
7、有序集合
在集合的基础上,为每元素排序;元素的排序需要根据另外一个值来进行比较,所以,对于有序集合,每一个元素有两个值,即:值和分数,分数专门用来做排序。
zadd(name, *args, **kwargs) 在name对应的有序集合中添加元素 如: zadd('zz', 'n1', 1, 'n2', 2) 或 zadd('zz', n1=11, n2=22) zcard(name) 获取name对应的有序集合元素的数量 zcount(name, min, max) 获取name对应的有序集合中分数 在 [min,max] 之间的个数 zincrby(name, value, amount) 自增name对应的有序集合的 name 对应的分数 r.zrange( name, start, end, desc=False, withscores=False, score_cast_func=float) 按照索引范围获取name对应的有序集合的元素 参数: name,redis的name start,有序集合索引起始位置(非分数) end,有序集合索引结束位置(非分数) desc,排序规则,默认按照分数从小到大排序 withscores,是否获取元素的分数,默认只获取元素的值 score_cast_func,对分数进行数据转换的函数 更多: 从大到小排序 zrevrange(name, start, end, withscores=False, score_cast_func=float) 按照分数范围获取name对应的有序集合的元素 zrangebyscore(name, min, max, start=None, num=None, withscores=False, score_cast_func=float) 从大到小排序 zrevrangebyscore(name, max, min, start=None, num=None, withscores=False, score_cast_func=float) zrank(name, value) 获取某个值在 name对应的有序集合中的排行(从 0 开始) 更多: zrevrank(name, value),从大到小排序 zrangebylex(name, min, max, start=None, num=None) 当有序集合的所有成员都具有相同的分值时,有序集合的元素会根据成员的 值 (lexicographical ordering)来进行排序,而这个命令则可以返回给定的有序集合键 key 中, 元素的值介于 min 和 max 之间的成员 对集合中的每个成员进行逐个字节的对比(byte-by-byte compare), 并按照从低到高的顺序, 返回排序后的集合成员。 如果两个字符串有一部分内容是相同的话, 那么命令会认为较长的字符串比较短的字符串要大 参数: name,redis的name min,左区间(值)。 + 表示正无限; - 表示负无限; ( 表示开区间; [ 则表示闭区间 min,右区间(值) start,对结果进行分片处理,索引位置 num,对结果进行分片处理,索引后面的num个元素 如: ZADD myzset 0 aa 0 ba 0 ca 0 da 0 ea 0 fa 0 ga r.zrangebylex('myzset', "-", "[ca") 结果为:['aa', 'ba', 'ca'] 更多: 从大到小排序 zrevrangebylex(name, max, min, start=None, num=None) zrem(name, values) 删除name对应的有序集合中值是values的成员 如:zrem('zz', ['s1', 's2']) zremrangebyrank(name, min, max) 根据排行范围删除 zremrangebyscore(name, min, max) 根据分数范围删除 zremrangebylex(name, min, max) 根据值返回删除 zscore(name, value) 获取name对应有序集合中 value 对应的分数 zinterstore(dest, keys, aggregate=None) 获取两个有序集合的交集,如果遇到相同值不同分数,则按照aggregate进行操作 aggregate的值为: SUM MIN MAX zunionstore(dest, keys, aggregate=None) 获取两个有序集合的并集,如果遇到相同值不同分数,则按照aggregate进行操作 aggregate的值为: SUM MIN MAX zscan(name, cursor=0, match=None, count=None, score_cast_func=float) zscan_iter(name, match=None, count=None,score_cast_func=float) 同字符串相似,相较于字符串新增score_cast_func,用来对分数进行操作
8、其他常用操作
delete(*names) 根据删除redis中的任意数据类型 exists(name) 检测redis的name是否存在 keys(pattern='*') 根据模型获取redis的name 更多: KEYS * 匹配数据库中所有 key 。 KEYS h?llo 匹配 hello , hallo 和 hxllo 等。 KEYS h*llo 匹配 hllo 和 heeeeello 等。 KEYS h[ae]llo 匹配 hello 和 hallo ,但不匹配 hillo expire(name ,time) 为某个redis的某个name设置超时时间 rename(src, dst) 对redis的name重命名为 move(name, db)) 将redis的某个值移动到指定的db下 randomkey() 随机获取一个redis的name(不删除) type(name) 获取name对应值的类型 scan(cursor=0, match=None, count=None) scan_iter(match=None, count=None) 同字符串操作,用于增量迭代获取key
9、管道
redis-py默认在执行每次请求都会创建(连接池申请连接)和断开(归还连接池)一次连接操作,如果想要在一次请求中指定多个命令,则可以使用pipline实现一次请求指定多个命令,并且默认情况下一次pipline 是原子性操作。
#!/usr/bin/env python # -*- coding:utf-8 -*- import redis pool = redis.ConnectionPool(host='10.211.55.4', port=6379) r = redis.Redis(connection_pool=pool) # pipe = r.pipeline(transaction=False) pipe = r.pipeline(transaction=True) r.set('name', 'alex') r.set('role', 'sb') pipe.execute()
10、发布订阅
#!/usr/bin/env python # -*- coding:utf-8 -*- import redis class RedisHelper: def __init__(self): self.__conn = redis.Redis(host='10.211.55.4') self.chan_sub = 'fm104.5' self.chan_pub = 'fm104.5' def public(self, msg): self.__conn.publish(self.chan_pub, msg) return True def subscribe(self): pub = self.__conn.pubsub() pub.subscribe(self.chan_sub) pub.parse_response() return pub RedisHelper
订阅者
#!/usr/bin/env python # -*- coding:utf-8 -*- from monitor.RedisHelper import RedisHelper obj = RedisHelper() redis_sub = obj.subscribe() while True: msg= redis_sub.parse_response() print msg
发布者
#!/usr/bin/env python # -*- coding:utf-8 -*- from monitor.RedisHelper import RedisHelper obj = RedisHelper() obj.public('hello')