python学习笔记 ---线程、进程、协程、队列、python-memcache、python-redis

一、线程

Threading用于提供线程相关的操作,线程是应用程序中工作的最小单元。

复制代码
#!/usr/bin/env python
# -*- coding:utf-8 -*-
import threading
import time
  
def show(arg):
    time.sleep(1)
    print 'thread'+str(arg)
  
for i in range(10):
    t = threading.Thread(target=show, args=(i,))
    t.start()
  
print 'main thread stop'
复制代码

上述代码创建了10个“前台”线程,然后控制器就交给了CPU,CPU根据指定算法进行调度,分片执行指令。

更多方法:

    • start            线程准备就绪,等待CPU调度
    • setName      为线程设置名称
    • getName      获取线程名称
    • setDaemon   设置为后台线程或前台线程(默认)
                         如果是后台线程,主线程执行过程中,后台线程也在进行,主线程执行完毕后,后台线程不论成功与否,均停止
                          如果是前台线程,主线程执行过程中,前台线程也在进行,主线程执行完毕后,等待前台线程也执行完成后,程序停止
    • join              逐个执行每个线程,执行完毕后继续往下执行,该方法使得多线程变得无意义
    • run              线程被cpu调度后自动执行线程对象的run方法
复制代码
import threading
import time
 
 
class MyThread(threading.Thread):
    def __init__(self,num):
        threading.Thread.__init__(self)
        self.num = num
 
    def run(self):#定义每个线程要运行的函数
 
        print("running on number:%s" %self.num)
 
        time.sleep(3)
 
if __name__ == '__main__':
 
    t1 = MyThread(1)
    t2 = MyThread(2)
    t1.start()
    t2.start()
复制代码

线程锁(Lock、RLock)

由于线程之间是进行随机调度,并且每个线程可能只执行n条执行之后,当多个线程同时修改同一条数据时可能会出现脏数据,所以,出现了线程锁 - 同一时刻允许一个线程执行操作。

复制代码
#!/usr/bin/env python
#-*-coding:utf-8-*-
import threading
import time
NUM=10

def func(i,l):
    global NUM
    #上锁
    l.acquire()
    NUM -= 1
    time.sleep(5)
    print(NUM)
    #开锁
    l.release()

#lock=threading.Lock()
# lock=threading.RLock()
lock=threading.BoundedSemaphore(5)
for i in range(10):
    # t=threading.Thread(target=func,args=(lock,))
    t=threading.Thread(target=func,args=(i,lock,))
    t.start()
复制代码
复制代码
#!/usr/bin/env python
#-*-coding:utf-8-*-
import threading
def func(i,e):
    print(i)
    e.wait()#检测是什么灯,
    print(i+100)
event=threading.Event()

for i in range(10):
    t=threading.Thread(target=func,args=(i,event,))
    t.start()

#--------------
event.clear()#设置成红灯
inp=input('>>>')
if inp == "1":
    event.set()#设置成绿灯
复制代码
复制代码
#!/usr/bin/env python
#-*-coding:utf-8-*-
#第一种
import threading

def condition():
    ret = False
    r = input('>>>')
    if r == 'true':
        ret = True
    else:
        ret = False
    return ret


def func(i,con):
    print(i)
    con.acquire()
    con.wait_for(condition)
    print(i+100)
    con.release()

c = threading.Condition()
for i in range(10):
    t = threading.Thread(target=func, args=(i,c,))
    t.start()
#第二种
import threading
def func(i,con):
    print(i)
    con.acquire()
    con.wait()
    print(i+100)
    con.release()

c = threading.Condition()
for i in range(10):
    t = threading.Thread(target=func, args=(i,c,))
    t.start()

while True:
    inp = input('>>>')
    if inp == 'q':
        break
    c.acquire()
    c.notify(int(inp))
    c.release()
from threading import Timer


def hello():
    print("hello, world")

t = Timer(1, hello)
t.start()  # after 1 seconds, "hello, world" will be printed
复制代码
复制代码
#互斥锁 同时只允许一个线程更改数据,而Semaphore是同时允许一定数量的线程更改数据 ,比如厕所有3个坑,那最多只允许3个人上厕所,后面的人只能等里面有人出来了才能再进去。

import threading,time
 
def run(n):
    semaphore.acquire()
    time.sleep(1)
    print("run the thread: %s" %n)
    semaphore.release()
 
if __name__ == '__main__':
 
    num= 0
    semaphore  = threading.BoundedSemaphore(5) #最多允许5个线程同时运行
    for i in range(20):
        t = threading.Thread(target=run,args=(i,))
        t.start()
复制代码

二、进程

1
2
3
4
5
6
7
8
9
10
from multiprocessing import Process
import threading
import time
   
def foo(i):
     print 'say hi' ,i
   
for i in range ( 10 ):
     p = Process(target = foo,args = (i,))
     p.start()

 注意:由于进程之间的数据需要各自持有一份,所以创建进程需要的非常大的开销。

进程间的数据共享

 

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
#!/usr/bin/env python
#-*-coding:utf-8-*-
 
#第一种multiprocessing,queues
# from multiprocessing import Process
# from multiprocessing  import queues
# import multiprocessing
#
# def foo(i,arg):
#     arg.put(i)
#     print('say hi',i,arg.qsize())
#
# if __name__=='__main__':
#     li = queues.Queue(20,ctx=multiprocessing)
#     for i in range(10):
#         p = Process(target=foo,args=(i,li,))
#         p.start()
 
#第二种Array
# from multiprocessing import Process
# from multiprocessing import queues
# import multiprocessing
# from multiprocessing import Array
# def foo(i,arg):
#     arg[i]=i+100
#     for item in arg:
#         print(item)
#     print('==========')
# if __name__=='__main__':
#     li=Array('i',10)
#     for i in range(10):
#         p=Process(target=foo,args=(i,li,))
#         p.start()
 
 
#第三种
from multiprocessing import Process
from multiprocessing import queues
import multiprocessing
from multiprocessing import Manager
def foo(i,arg):
     # arg.put(i)
     # print('say hi',i,arg.qsize())
     # arg[i] = i + 100
     # for item in arg:
     #     print(item)
     # print('==========')
     arg[i]  = i + 100
     print (arg.values())
if __name__ = = '__main__' :
     #li = []
     #li = queues.Queue(20,ctx=multiprocessing)
     obj = Manager()
     li = obj. dict ()
     #li = Array('i',10)
     for i in range ( 10 ):
         p = Process(target = foo,args = (i,li,))
         #p.daemon = True
         p.start()
         #p.join()
         import time
         time.sleep( 0.1 )
复制代码
    'c': ctypes.c_char,  'u': ctypes.c_wchar,
    'b': ctypes.c_byte,  'B': ctypes.c_ubyte,
    'h': ctypes.c_short, 'H': ctypes.c_ushort,
    'i': ctypes.c_int,   'I': ctypes.c_uint,
    'l': ctypes.c_long,  'L': ctypes.c_ulong,
    'f': ctypes.c_float, 'd': ctypes.c_double
复制代码

进程锁实例:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
#!/usr/bin/env python
# -*- coding:utf-8 -*-
 
from multiprocessing import Process, Array, RLock
 
def Foo(lock,temp,i):
     """
     将第0个数加100
     """
     lock.acquire()
     temp[ 0 ] = 100 + i
     for item in temp:
         print i, '----->' ,item
     lock.release()
 
lock = RLock()
temp = Array( 'i' , [ 11 , 22 , 33 , 44 ])
 
for i in range ( 20 ):
     p = Process(target = Foo,args = (lock,temp,i,))
     p.start()

 进程池

进程池内部维护一个进程序列,当使用时,则去进程池中获取一个进程,如果进程池序列中没有可供使用的进进程,那么程序就会等待,直到进程池中有可用进程为止。

进程池中有两个方法:

  • apply
  • apply_async
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
#!/usr/bin/env python
# -*- coding:utf-8 -*-
from  multiprocessing import Process,Pool
import time
   
def Foo(i):
     time.sleep( 2 )
     return i + 100
   
def Bar(arg):
     print arg
   
pool = Pool( 5 )
#print pool.apply(Foo,(1,))
#print pool.apply_async(func =Foo, args=(1,)).get()
   
for i in range ( 10 ):
     pool.apply_async(func = Foo, args = (i,),callback = Bar)
   
print 'end'
pool.close()
pool.join() #进程池中进程执行完毕后再关闭,如果注释,那么程序直接关闭。

 三、协程

 线程和进程的操作是由程序触发系统接口,最后的执行者是系统;协程的操作则是程序员。

协程存在的意义:对于多线程应用,CPU通过切片的方式来切换线程间的执行,线程切换时需要耗时(保存状态,下次继续)。协程,则只使用一个线程,在一个线程中规定某个代码块执行顺序。

协程的适用场景:当程序中存在大量不需要CPU的操作时(IO),适用于协程;

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
#!/usr/bin/env python
# -*- coding:utf-8 -*-
  
  
from greenlet import greenlet
  
  
def test1():
     print 12
     gr2.switch()
     print 34
     gr2.switch()
  
  
def test2():
     print 56
     gr1.switch()
     print 78
  
gr1 = greenlet(test1)
gr2 = greenlet(test2)
gr1.switch()

 

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
import gevent
  
def foo():
     print ( 'Running in foo' )
     gevent.sleep( 0 )
     print ( 'Explicit context switch to foo again' )
  
def bar():
     print ( 'Explicit context to bar' )
     gevent.sleep( 0 )
     print ( 'Implicit context switch back to bar' )
  
gevent.joinall([
     gevent.spawn(foo),
     gevent.spawn(bar),
])

四、队列

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
#!/usr/bin/env python
#-*-coding:utf-8-*-
import queue,time
#先进先出队列
#put放数据,是否阻塞,阻塞时的超时时间
#get取数据(默认阻塞),是否阻塞,阻塞时的超时时间
#队列最大长度
#qsize()真是个数
#maxsize最大支持个数
#join,task_done,阻塞进程,当队列中的任务执行完毕后,不再阻塞
# q=queue.Queue(2)
# print(q.empty())#判断队列有没有元素,有返回True
# q.put(11)
# q.put(22)
# print(q.empty())
# print(q.qsize())
# q.put(22)
# q.put(33,block=False)
# q.put(33,block=False,timeout=2)
# print(q.get())
# print(q.get())
# print(q.get(timeout=2))
 
 
 
import  queue               #先进先出
# q = queue.LifoQueue()
# q.put(123)
# q.put(456)
# print(q.get())
 
# q = queue.PriorityQueue()   #根据优先级处理
# q.put((1,"alex1"))
# q.put((2,"alex2"))
# q.put((3,"alex3"))
# print(q.get())
 
# q= queue.deque()          #双向队列
# q.append((123))
# q.append(234)
# q.appendleft(456)
# print(q.pop())
# print(q.popleft())
 
 
 
# q=queue.Queue(5)
# q.put(123)
# q.put(456)
# q.get()
# q.task_done()
# q.get()
# time.sleep(5)
# q.task_done()
# q.join()

 五、python-memcache

Memcached安装,使用:

wget http: / / memcached.org / latest
tar - zxvf memcached - 1.x .x.tar.gz
cd memcached - 1.x .x
. / configure && make && make test && sudo make install
  
PS:依赖libevent
        yum install libevent - devel
        apt - get install libevent - dev
 
启动memcache
memcached - d - m 10    - u root - l 10.211 . 55.4 - p 12000 - c 256 - P / tmp / memcached.pid
  
参数说明:
     - d 是启动一个守护进程
     - m 是分配给Memcache使用的内存数量,单位是MB
     - u 是运行Memcache的用户
     - l 是监听的服务器IP地址
     - p 是设置Memcache监听的端口,最好是 1024 以上的端口
     - c 选项是最大运行的并发连接数,默认是 1024 ,按照你服务器的负载量来设定
     - P 是设置保存Memcache的pid文件
 
命令
存储命令: set / add / replace / append / prepend / cas
获取命令: get / gets
其他命令: delete / stats..
 
python - m pip install python - memcache

 

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
#!/usr/bin/env python
#-*-coding:utf-8-*-
# python3 -m pip install --upgrade pip
# python3 -m pip install python-memcached
import memcache
# mc=memcache.Client(['192.168.144.135:12000'],debug=True)
# mc.set("foo","bar")#set存储
# ret=mc.get("foo")#get获取
# print(ret)#debug = True 表示运行出现错误时,现实错误信息,上线后移除该参数。
 
#add添加一条键值对,如果已经存在的 key,重复执行add操作异常
# mc=memcache.Client(['192.168.144.135:12000'],debug=True)
# mc.add('k1', 'v1')
# mc.add('k1', 'v2')#会报错
 
 
# replace 修改某个key的值,如果key不存在,则异常
# mc=memcache.Client(['192.168.144.135:12000'],debug=True)
# mc.set('k1', 'v1')
# mc.replace('k1','999')#替换的是v值,v1变成了999
# # 如果memcache中存在key值,则替换成功,否则异常
# ret=mc.get('k1')
# print(ret)
 
 
# set 和 set_multi
# set       设置一个键值对,如果key不存在,则创建,如果key存在,则修改
# set_multi 设置多个键值对,如果key不存在,则创建,如果key存在,则修改
# mc=memcache.Client(['192.168.144.135:12000'],debug=True)
# mc.set('key1','zrz')
# mc.set('key1','zkk')#如果k存在则更改,不存在则创建
# mc.set_multi({'key1': 'val1', 'key2': 'val2'})#多个一起设置
# ret=mc.get('key2')
# print(ret)
 
 
# delete 和 delete_multi
# delete             在Memcached中删除指定的一个键值对
# delete_multi    在Memcached中删除指定的多个键值对
# mc=memcache.Client(['192.168.144.135:12000'],debug=True)
# mc.set_multi({'key1': 'val1', 'key2': 'val2'})
# mc.delete('key1')#如果存在则删除,不存在也不报异常
# ret=mc.get('key1')
# print(ret)
 
# get 和 get_multi
# get            获取一个键值对
# get_multi   获取多一个键值对
# mc=memcache.Client(['192.168.144.135:12000'],debug=True)
# mc.set_multi({'key1': 'val1', 'key2': 'val2'})
# ret1=mc.get('key1')
# dic_ret=mc.get_multi(['key1','key2'])#获取的是一个字典
# print(dic_ret,type(dic_ret))
 
 
# append 和 prepend
# append    修改指定key的值,在该值 后面 追加内容
# prepend   修改指定key的值,在该值 前面 插入内容
# mc=memcache.Client(['192.168.144.135:12000'],debug=True)
# mc.set('k1','v1')
# mc.append('k1','v2')#在v1后添加v2
# mc.prepend('k1','v3')#在v1前添加v2
# r=mc.get('k1')
# print(r)
 
 
# decr 和 incr  
# incr  自增,将Memcached中的某一个值增加 N ( N默认为1 )
# decr 自减,将Memcached中的某一个值减少 N ( N默认为1 )
# mc=memcache.Client(['192.168.144.135:12000'],debug=True)
# mc.set('k1',77)
# while True:
#     mc.incr('k1',10)#将Memcached中的某一个值增加10
#     mc.decr('k1')#将Memcached中的某一个值减少 N ( N默认为1 )
#     r=mc.get('k1')
#     print(r)
 
 
 
# gets 和 cas
# 如商城商品剩余个数,假设改值保存在memcache中,product_count = 900
# A用户刷新页面从memcache中读取到product_count = 900
# B用户刷新页面从memcache中读取到product_count = 900
# 如果A、B用户均购买商品
# A用户修改商品剩余个数 product_count=899
# B用户修改商品剩余个数 product_count=899
# 如此一来缓存内的数据便不在正确,两个用户购买商品后,商品剩余还是 899
# 如果使用python的set和get来操作以上过程,那么程序就会如上述所示情况!
# 如果想要避免此情况的发生,只要使用 gets 和 cas 即可,如:
# mc=memcache.Client(['192.168.144.135:12000'],debug=True)
# mc.gets('product_count')
# mc.set('product_count',111)
# a=mc.get('product_count')
# mc.cas('product_count', 777)
# mc.incr('product_count',222)
# # ...
# # 如果有人在gets之后和cas之前修改了product_count,那么,下面的设置将会执行失败,剖出异常,从而避免非正常数据的产生
# mc.cas('product_count', 899)
# r=mc.get('product_count')
# print(a)#感觉并没什么卵用

 六、redis

安装使用:

安装:
wget http: / / download.redis.io / releases / redis - 3.0 . 6.tar .gz
tar xzf redis - 3.0 . 6.tar .gz
cd redis - 3.0 . 6
make
 
启动服务端:src / redis - server
启动客户端:src / redis - cli
 
 
python - m pip install redis

 

API使用

redis-py 的API的使用可以分类为:

  • 连接方式
  • 连接池
  • 操作
    • String 操作
    • Hash 操作
    • List 操作
    • Set 操作
    • Sort Set 操作
  • 管道
  • 发布订阅

 

1、操作模式

redis-py提供两个类Redis和StrictRedis用于实现Redis的命令,StrictRedis用于实现大部分官方的命令,并使用官方的语法和命令,Redis是StrictRedis的子类,用于向后兼容旧版本的redis-py。

1
2
3
4
5
6
7
8
#!/usr/bin/env python
# -*- coding:utf-8 -*-
  
import redis
  
r = redis.Redis(host = '10.211.55.4' , port = 6379 )
r. set ( 'foo' , 'Bar' )
print r.get( 'foo' )

 2、连接池

redis-py使用connection pool来管理对一个redis server的所有连接,避免每次建立、释放连接的开销。默认,每个Redis实例都会维护一个自己的连接池。可以直接建立一个连接池,然后作为参数 Redis,这样就可以实现多个Redis实例共享一个连接池。

1
2
3
4
5
6
7
8
9
10
#!/usr/bin/env python
# -*- coding:utf-8 -*-
  
import redis
  
pool = redis.ConnectionPool(host = '10.211.55.4' , port = 6379 )
  
r = redis.Redis(connection_pool = pool)
r. set ( 'foo' , 'Bar' )
print r.get( 'foo' )

 3、操作

String操作,redis中的String在在内存中按照一个name对应一个value来存储。如图:

                                                                                               

                                                      

set(name, value, ex=None, px=None, nx=False, xx=False)

在Redis中设置值,默认,不存在则创建,存在则修改
参数:
      ex,过期时间(秒)
      px,过期时间(毫秒)
      nx,如果设置为 True ,则只有name不存在时,当前 set 操作才执行
      xx,如果设置为 True ,则只有name存在时,岗前 set 操作才执行

 setnx(name, value)

设置值,只有name不存在时,执行设置操作(添加)

 

setex(name, value, time)

# 设置值
# 参数:
     # time,过期时间(数字秒 或 timedelta对象)
 
psetex(name, time_ms, value)
# 设置值
# 参数:
     # time_ms,过期时间(数字毫秒 或 timedelta对象)
 
mset(*args, **kwargs)
1
2
3
4
5
批量设置值
如:
     mset(k1 = 'v1' , k2 = 'v2' )
    
     mget({ 'k1' : 'v1' , 'k2' : 'v2' })

get(name)

获取值

mget(keys, *args)

1
2
3
4
5
批量获取
如:
     mget( 'ylr' , 'wupeiqi' )
    
     r.mget([ 'ylr' , 'wupeiqi' ])

 getset(name, value)

设置新值并获取原来的值

 

getrange(key, start, end)

# 修改字符串内容,从指定字符串索引开始向后替换(新值太长时,则向后添加)
# 参数:
     # offset,字符串的索引,字节(一个汉字三个字节)
     # value,要设置的值
 
setbit(name, offset, value)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
# 对name对应值的二进制表示的位进行操作
  
# 参数:
     # name,redis的name
     # offset,位的索引(将值变换成二进制后再进行索引)
     # value,值只能是 1 或 0
  
# 注:如果在Redis中有一个对应: n1 = "foo",
         那么字符串foo的二进制表示为: 01100110 01101111 01101111
     所以,如果执行 setbit( 'n1' , 7 , 1 ),则就会将第 7 位设置为 1
         那么最终二进制则变成 01100111 01101111 01101111 ,即: "goo"
  
# 扩展,转换二进制表示:
  
     # source = "武沛齐"
     source = "foo"
  
     for i in source:
         num = ord (i)
         print bin (num).replace( 'b' ,'')
  
     特别的,如果source是汉字 "武沛齐" 怎么办?
     答:对于utf - 8 ,每一个汉字占 3 个字节,那么 "武沛齐" 则有 9 个字节
        对于汉字, for 循环时候会按照 字节 迭代,那么在迭代时,将每一个字节转换 十进制数,然后再将十进制数转换成二进制
         11100110 10101101 10100110 11100110 10110010 10011011 11101001 10111101 10010000
         - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
                     武                         沛                           齐

getbit(name, offset)

获取name对应的值的二进制表示中的某位的值 (0或1)

 

bitcount(key, start=None, end=None)

# 获取name对应的值的二进制表示中 1 的个数
# 参数:
     # key,Redis的name
     # start,位起始位置
     # end,位结束位置
 
bitop(operation, dest, *keys)
1
2
3
4
5
6
7
8
9
10
# 获取多个值,并将值做位运算,将最后的结果保存至新的name对应的值
  
# 参数:
     # operation,AND(并) 、 OR(或) 、 NOT(非) 、 XOR(异或)
     # dest, 新的Redis的name
     # *keys,要查找的Redis的name
  
# 如:
     bitop( "AND" , 'new_name' , 'n1' , 'n2' , 'n3' )
     # 获取Redis中n1,n2,n3对应的值,然后讲所有的值做位运算(求并集),然后将结果保存 new_name 对应的值中

strlen(name)

# 返回name对应值的字节长度(一个汉字3个字节)

 

incr(self, name, amount=1)

# 自增 name对应的值,当name不存在时,则创建name=amount,否则,则自增。
 
# 参数:
     # name,Redis的name
     # amount,自增数(必须是整数)
# 注:同incrby
 
incrbyfloat(self, name, amount=1.0)
# 自增 name对应的值,当name不存在时,则创建name=amount,否则,则自增。
# 参数:
     # name,Redis的name
     # amount,自增数(浮点型)
 
decr(self, name, amount=1)
# 自减 name对应的值,当name不存在时,则创建name=amount,否则,则自减。
# 参数:
     # name,Redis的name
     # amount,自减数(整数)
 
append(key, value)
# 在redis name对应的值后面追加内容
# 参数:
     key, redis的name
     value, 要追加的字符串

Hash操作,redis中Hash在内存中的存储格式如下图:

                                      

hset(name, key, value)

# name对应的hash中设置一个键值对(不存在,则创建;否则,修改)
# 参数:
     # name,redis的name
     # key,name对应的hash中的key
     # value,name对应的hash中的value
# 注:
     # hsetnx(name, key, value),当name对应的hash中不存在当前key时则创建(相当于添加)
 
hmset(name, mapping)
# 在name对应的hash中批量设置键值对
# 参数:
     # name,redis的name
     # mapping,字典,如:{'k1':'v1', 'k2': 'v2'}
# 如:
     # r.hmset('xx', {'k1':'v1', 'k2': 'v2'})
 
hget(name,key)
# 在name对应的hash中获取根据key获取value
 
hmget(name, keys, *args)
# 在name对应的hash中获取多个key的值
# 参数:
     # name,reids对应的name
     # keys,要获取key集合,如:['k1', 'k2', 'k3']
     # *args,要获取的key,如:k1,k2,k3
# 如:
     # r.mget('xx', ['k1', 'k2'])
     # 或
     # print r.hmget('xx', 'k1', 'k2')
 
hgetall(name)
获取name对应 hash 的所有键值
 
hlen(name)
# 获取name对应的hash中键值对的个数
 
hkeys(name)
# 获取name对应的hash中所有的key的值
 
hvals(name)
# 获取name对应的hash中所有的value的值
 
hexists(name, key)
# 检查name对应的hash是否存在当前传入的key
 
hdel(name,*keys)
# 将name对应的hash中指定key的键值对删除
 
hincrby(name, key, amount=1)
# 自增name对应的hash中的指定key的值,不存在则创建key=amount
# 参数:
     # name,redis中的name
     # key, hash对应的key
     # amount,自增数(整数)
 
hincrbyfloat(name, key, amount=1.0)
# 自增name对应的hash中的指定key的值,不存在则创建key=amount
# 参数:
     # name,redis中的name
     # key, hash对应的key
     # amount,自增数(浮点数)
# 自增name对应的hash中的指定key的值,不存在则创建key=amount
 
hscan(name, cursor=0, match=None, count=None)
# 增量式迭代获取,对于数据大的数据非常有用,hscan可以实现分片的获取数据,并非一次性将数据全部获取完,从而放置内存被撑爆
# 参数:
     # name,redis的name
     # cursor,游标(基于游标分批取获取数据)
     # match,匹配指定key,默认None 表示所有的key
     # count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数
# 如:
     # 第一次:cursor1, data1 = r.hscan('xx', cursor=0, match=None, count=None)
     # 第二次:cursor2, data1 = r.hscan('xx', cursor=cursor1, match=None, count=None)
     # ...
     # 直到返回值cursor的值为0时,表示数据已经通过分片获取完毕
 
hscan_iter(name, match=None, count=None)
# 利用yield封装hscan创建生成器,实现分批去redis中获取数据
# 参数:
     # match,匹配指定key,默认None 表示所有的key
     # count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数
# 如:
     # for item in r.hscan_iter('xx'):
     #     print item
 
List操作,redis中的List在在内存中按照一个name对应一个List来存储。如图:
                                                              
lpush(name,values)
1
2
3
4
5
6
7
8
# 在name对应的list中添加元素,每个新的元素都添加到列表的最左边
  
# 如:
     # r.lpush('oo', 11,22,33)
     # 保存顺序为: 33,22,11
  
# 扩展:
     # rpush(name, values) 表示从右向左操作

lpushx(name,value)

1
2
3
4
# 在name对应的list中添加元素,只有name已经存在时,值添加到列表的最左边
  
# 更多:
     # rpushx(name, value) 表示从右向左操作

 llen(name)

# name对应的list元素的个数
 
linsert(name, where, refvalue, value))
1
2
3
4
5
6
7
# 在name对应的列表的某一个值前或后插入一个新值
  
# 参数:
     # name,redis的name
     # where,BEFORE或AFTER
     # refvalue,标杆值,即:在它前后插入数据
     # value,要插入的数据

r.lset(name, index, value)

1
2
3
4
5
6
# 对name对应的list中的某一个索引位置重新赋值
  
# 参数:
     # name,redis的name
     # index,list的索引位置
     # value,要设置的值

 r.lrem(name, value, num)

1
2
3
4
5
6
7
8
# 在name对应的list中删除指定的值
  
# 参数:
     # name,redis的name
     # value,要删除的值
     # num,  num=0,删除列表中所有的指定值;
            # num=2,从前到后,删除2个;
            # num=-2,从后向前,删除2个

 lpop(name)

1
2
3
4
# 在name对应的列表的左侧获取第一个元素并在列表中移除,返回值则是第一个元素
  
# 更多:
     # rpop(name) 表示从右向左操作

 lindex(name, index)

在name对应的列表中根据索引获取列表元素

 

lrange(name, start, end)

1
2
3
4
5
# 在name对应的列表分片获取数据
# 参数:
     # name,redis的name
     # start,索引的起始位置
     # end,索引结束位置

 ltrim(name, start, end)

1
2
3
4
5
# 在name对应的列表中移除没有在start-end索引之间的值
# 参数:
     # name,redis的name
     # start,索引的起始位置
     # end,索引结束位置

 rpoplpush(src, dst)

1
2
3
4
# 从一个列表取出最右边的元素,同时将其添加至另一个列表的最左边
# 参数:
     # src,要取数据的列表的name
     # dst,要添加数据的列表的name

 blpop(keys, timeout)

1
2
3
4
5
6
7
8
# 将多个列表排列,按照从左到右去pop对应列表的元素
  
# 参数:
     # keys,redis的name的集合
     # timeout,超时时间,当元素所有列表的元素获取完之后,阻塞等待列表内有数据的时间(秒), 0 表示永远阻塞
  
# 更多:
     # r.brpop(keys, timeout),从右向左获取数据

 brpoplpush(src, dst, timeout=0)

1
2
3
4
5
6
# 从一个列表的右侧移除一个元素并将其添加到另一个列表的左侧
  
# 参数:
     # src,取出并要移除元素的列表对应的name
     # dst,要插入元素的列表对应的name
     # timeout,当src对应的列表中没有数据时,阻塞等待其有数据的超时时间(秒),0 表示永远阻塞

 自定义增量迭代

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
# 由于redis类库中没有提供对列表元素的增量迭代,如果想要循环name对应的列表的所有元素,那么就需要:
     # 1、获取name对应的所有列表
     # 2、循环列表
# 但是,如果列表非常大,那么就有可能在第一步时就将程序的内容撑爆,所有有必要自定义一个增量迭代的功能:
  
def list_iter(name):
     """
     自定义redis列表增量迭代
     :param name: redis中的name,即:迭代name对应的列表
     :return: yield 返回 列表元素
     """
     list_count = r.llen(name)
     for index in xrange (list_count):
         yield r.lindex(name, index)
  
# 使用
for item in list_iter( 'pp' ):
     print item

 

Set操作,Set集合就是不允许重复的列表

sadd(name,values)

# name对应的集合中添加元素

 

scard(name)

获取name对应的集合中元素个数

 

sdiff(keys, *args)

在第一个name对应的集合中且不在其他name对应的集合的元素集合

 

sdiffstore(dest, keys, *args)

# 获取第一个name对应的集合中且不在其他name对应的集合,再将其新加入到dest对应的集合中

 

sinter(keys, *args)

# 获取多一个name对应集合的并集

 

sinterstore(dest, keys, *args)

# 获取多一个name对应集合的并集,再讲其加入到dest对应的集合中

 

sismember(name, value)

# 检查value是否是name对应的集合的成员

 

smembers(name)

# 获取name对应的集合的所有成员

 

smove(src, dst, value)

# 将某个成员从一个集合中移动到另外一个集合

 

spop(name)

# 从集合的右侧(尾部)移除一个成员,并将其返回

 

srandmember(name, numbers)

# 从name对应的集合中随机获取 numbers 个元素

 

srem(name, values)

# 在name对应的集合中删除某些值

 

sunion(keys, *args)

# 获取多一个name对应的集合的并集

 

sunionstore(dest,keys, *args)

# 获取多一个name对应的集合的并集,并将结果保存到dest对应的集合中

 

sscan(name, cursor=0, match=None, count=None)
sscan_iter(name, match=None, count=None)

# 同字符串的操作,用于增量迭代分批获取元素,避免内存消耗太大

 

有序集合,在集合的基础上,为每元素排序;元素的排序需要根据另外一个值来进行比较,所以,对于有序集合,每一个元素有两个值,即:值和分数,分数专门用来做排序。

zadd(name, *args, **kwargs)

1
2
3
4
5
# 在name对应的有序集合中添加元素
# 如:
      # zadd('zz', 'n1', 1, 'n2', 2)
      # 或
      # zadd('zz', n1=11, n2=22)

 zcard(name)

# 获取name对应的有序集合元素的数量
 
zcount(name, min, max)
# 获取name对应的有序集合中分数 在 [min,max] 之间的个数
 
zincrby(name, value, amount)
# 自增name对应的有序集合的 name 对应的分数
 
r.zrange( name, start, end, desc=False, withscores=False, score_cast_func=float)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
# 按照索引范围获取name对应的有序集合的元素
  
# 参数:
     # name,redis的name
     # start,有序集合索引起始位置(非分数)
     # end,有序集合索引结束位置(非分数)
     # desc,排序规则,默认按照分数从小到大排序
     # withscores,是否获取元素的分数,默认只获取元素的值
     # score_cast_func,对分数进行数据转换的函数
  
# 更多:
     # 从大到小排序
     # zrevrange(name, start, end, withscores=False, score_cast_func=float)
  
     # 按照分数范围获取name对应的有序集合的元素
     # zrangebyscore(name, min, max, start=None, num=None, withscores=False, score_cast_func=float)
     # 从大到小排序
     # zrevrangebyscore(name, max, min, start=None, num=None, withscores=False, score_cast_func=float)

zrank(name, value)

1
2
3
4
# 获取某个值在 name对应的有序集合中的排行(从 0 开始)
  
# 更多:
     # zrevrank(name, value),从大到小排序

 zrangebylex(name, min, max, start=None, num=None)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
# 当有序集合的所有成员都具有相同的分值时,有序集合的元素会根据成员的 值 (lexicographical ordering)来进行排序,而这个命令则可以返回给定的有序集合键 key 中, 元素的值介于 min 和 max 之间的成员
# 对集合中的每个成员进行逐个字节的对比(byte-by-byte compare), 并按照从低到高的顺序, 返回排序后的集合成员。 如果两个字符串有一部分内容是相同的话, 那么命令会认为较长的字符串比较短的字符串要大
  
# 参数:
     # name,redis的name
     # min,左区间(值)。 + 表示正无限; - 表示负无限; ( 表示开区间; [ 则表示闭区间
     # min,右区间(值)
     # start,对结果进行分片处理,索引位置
     # num,对结果进行分片处理,索引后面的num个元素
  
# 如:
     # ZADD myzset 0 aa 0 ba 0 ca 0 da 0 ea 0 fa 0 ga
     # r.zrangebylex('myzset', "-", "[ca") 结果为:['aa', 'ba', 'ca']
  
# 更多:
     # 从大到小排序
     # zrevrangebylex(name, max, min, start=None, num=None)

 zrem(name, values)

1
2
3
# 删除name对应的有序集合中值是values的成员
  
# 如:zrem('zz', ['s1', 's2'])

 zremrangebyrank(name, min, max)

# 根据排行范围删除
 
zremrangebyscore(name, min, max)
# 根据分数范围删除
 
zremrangebylex(name, min, max)
# 根据值返回删除
 
zscore(name, value)
# 获取name对应有序集合中 value 对应的分数
 
zinterstore(dest, keys, aggregate=None)
# 获取两个有序集合的交集,如果遇到相同值不同分数,则按照aggregate进行操作
# aggregate的值为:  SUM  MIN  MAX
 
zunionstore(dest, keys, aggregate=None)
# 获取两个有序集合的并集,如果遇到相同值不同分数,则按照aggregate进行操作
# aggregate的值为:  SUM  MIN  MAX
 
zscan(name, cursor=0, match=None, count=None, score_cast_func=float)
zscan_iter(name, match=None, count=None,score_cast_func=float)
# 同字符串相似,相较于字符串新增score_cast_func,用来对分数进行操作
 
其他常用操作
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
delete( * names)
# 根据删除redis中的任意数据类型
 
exists(name)
# 检测redis的name是否存在
 
keys(pattern = '*' )
# 根据模型获取redis的name
# 更多:
     # KEYS * 匹配数据库中所有 key 。
     # KEYS h?llo 匹配 hello , hallo 和 hxllo 等。
     # KEYS h*llo 匹配 hllo 和 heeeeello 等。
     # KEYS h[ae]llo 匹配 hello 和 hallo ,但不匹配 hillo
 
expire(name ,time)
# 为某个redis的某个name设置超时时间
 
rename(src, dst)
# 对redis的name重命名为
 
move(name, db))
# 将redis的某个值移动到指定的db下
 
randomkey()
# 随机获取一个redis的name(不删除)
 
type (name)
# 获取name对应值的类型
 
scan(cursor = 0 , match = None , count = None )
scan_iter(match = None , count = None )
# 同字符串操作,用于增量迭代获取key

4、管道

redis-py默认在执行每次请求都会创建(连接池申请连接)和断开(归还连接池)一次连接操作,如果想要在一次请求中指定多个命令,则可以使用pipline实现一次请求指定多个命令,并且默认情况下一次pipline 是原子性操作。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
#!/usr/bin/env python
# -*- coding:utf-8 -*-
  
import redis
  
pool = redis.ConnectionPool(host = '10.211.55.4' , port = 6379 )
  
r = redis.Redis(connection_pool = pool)
  
# pipe = r.pipeline(transaction=False)
pipe = r.pipeline(transaction = True )
  
r. set ( 'name' , 'alex' )
r. set ( 'role' , 'sb' )
  
pipe.execute()

 5、发布订阅

Demo如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
import redis
 
 
class RedisHelper:
 
     def __init__( self ):
         self .__conn = redis.Redis(host = '10.211.55.4' )
         self .chan_sub = 'fm104.5'
         self .chan_pub = 'fm104.5'
 
     def public( self , msg):
         self .__conn.publish( self .chan_pub, msg)
         return True
 
     def subscribe( self ):
         pub = self .__conn.pubsub()
         pub.subscribe( self .chan_sub)
         pub.parse_response()
         return pub

 订阅者:

1
2
3
4
5
6
7
8
9
10
11
#!/usr/bin/env python
# -*- coding:utf-8 -*-
  
from monitor.RedisHelper import RedisHelper
  
obj = RedisHelper()
redis_sub = obj.subscribe()
  
while True :
     msg = redis_sub.parse_response()
     print msg

 发布者:

1
2
3
4
5
6
7
#!/usr/bin/env python
# -*- coding:utf-8 -*-
  
from monitor.RedisHelper import RedisHelper
  
obj = RedisHelper()
obj.public( 'hello' )

 更多参见:https://github.com/andymccurdy/redis-py/

http://doc.redisfans.com/

 

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值