python连接redis的几种方式、原理剖析

0、 安装驱动

pip install redis
pip install python-redis

1、 直接连接

redis-py提供 两个类Redis和StrictRedi s 用于实现Redis的命令,StrictRedis用于实现大部分官方的命令,并使用官方的语法和命令,Redis是StrictRedis的子类,用于向后兼容旧版本的redis-py。
redis取出的结果默认是字节,可以使用 decode_responses=True  改成字符串。
import redis

r = redis.Redis(host='127.0.0.1', port=6379, password="123", decode_responses=True, max_connections=None)

r.set('foo', 'Bar')
print(r.get('foo')) 

''' 
decode_responses=False: b'Bar' <class 'bytes'>
decode_responses=True:    Bar <class 'str'>
''' 

注:连接redis,加上decode_responses=True,则写入键值对中的valuestr类型,不加这个参数写入的则为字节类型

 

2、 连接池--适用于并发量高场景

redis-py 使用connection pool 来管理对一个redis server的所有连接, 避免每次建立、释放连接的开销 默认,每个Redis实例都会维护一个自己的连接池 可以直接建立一个连接池,然后作为参数Redis, 这样就可以实现多个Redis实例共享一个连接池。
import redis

kwargs = {
    'host': '127.0.0.1',
    'port': 6379,
    'decode_responses': True,
    'retry_on_timeout': 3,
    'max_connections': 1024  # 默认2^31
}

pool = redis.ConnectionPool(**kwargs) 
r = redis.Redis(connection_pool=pool)

或者:
pool = redis.ConnectionPool(decode_responses=True)                   # 建立连接池
r = redis.Redis(connection_pool=pool,host='127.0.0.1', port=6379)   # 从连接池获取连接

r.set('book', '西游记')
print(r.get('book'))    # 西游记

2.1、为什么使用连接池?

Redis是数据库,C/S模式(C/S本身是种远程通信的交互模式),使用它需要建立连接。客户端访问Redis服务器到返回数据给客户端(一次数据请求), 耗时主要花费在两处:
    1、底层的网络通信,因为每次数据交互需先建立连接;
    2、Redis数据库处理
前期的底层网络通信占用时长比较多,而连接池可以实现在客户端建立多个连接并且不释放,当需要连接的时候直接从池子获取已经建立的连接,使用完则还给连接池,这免去了数据库连接所占用的时长。
 
 

2.2、连接池原理剖析

1、当redis.ConnectionPool 实例化的时候, 做了什么
这个 连接池的实例化其实未做任何真实的redis连接, 仅仅是设置最大连接数, 连接参数和连接类
 
 
2、 redis . Redis ( connection_pool = pool ) 实例化的时候,,又做了什么

可以看出,使用redis.Redis() 即使不创建连接池, 也会自己创建。到这里, 我们还没有看到什么redis连接真实发生。

3、r.set('book', '西游记'),set操作,这个时候一定会发生redis连接

 继续看看execute_command:
 
连接创建,调用的是ConnectionPool的get_connection:pool.get_connection(command_name, **options)
 
连接池有可用的连接则直接从连接池获取一个( connection = self ._available_connections.pop()),否则创建一个连接( connection = self .make_connection()):
 
 
释放连接:pool.release(conn)
连接池对象调用release方法, 将连接从_in_use_connections 放回 _available_connections, 这样后续的连接获取就能再次使用这个连接了。
 
 
 

2.3、redis连接的单例实现  

# coding:utf-8
import redis

class RedisDBConfig:
    HOST = '127.0.0.1'
    PORT = 6379
    DBID = 0

def operator_status(func):
    """get operatoration status
    """
    def gen_status(*args, **kwargs):
        error, result = None, None
        try:
            result = func(*args, **kwargs)
        except Exception as e:
            error = str(e)
           
        return {'result': result, 'error': error}
    return gen_status


class RedisModel(object):
    def __init__(self):
        if not hasattr(RedisModel, 'pool'):
            RedisModel.create_pool()
        self._connection = redis.Redis(connection_pool=RedisModel.pool)

    # python中,所有类的实例中的成员变量,都是公用一个内存地址,因此,及时实例化多个RedisCache类,内存中存在的pool也只有一个
    @staticmethod
    def create_pool():
        RedisModel.pool = redis.ConnectionPool(
            host=RedisDBConfig.HOST,
            port=RedisDBConfig.PORT,
            db=RedisDBConfig.DBID)

    @operator_status
    def set_data(self, key, value):
        """set data with (key, value)
        """
        return self._connection.set(key, value)

    @operator_status
    def get_data(self, key):
        """get data by key
        """
        return self._connection.get(key)

    @operator_status
    def del_data(self, key):
        """delete cache by key
        """
        return self._connection.delete(key)

def f1():
    r = RedisModel()
    print(id(r))       # 3118437616384

def f2():
    r1 = RedisModel()  # 3118437616384
    print(id(r1))


if __name__ == '__main__':
    print(RedisModel().set_data('Testkey', "Simple Test"))   # {'result': True, 'error': None}
    print(RedisModel().get_data('Testkey'))                  # {'result': b'Simple Test', 'error': None}
    print(RedisModel().del_data('Testkey'))                  # {'result': 1, 'error': None}
    print(RedisModel().get_data('Testkey'))                  # {'result': None, 'error': None}
    f1()
    f2()

 

3、参考:

https://blog.csdn.net/dcba2014/article/details/99292430          python redis之连接池的原理
https://blog.csdn.net/moxiaomomo/article/details/27085415  【python】使用redis pool的一种单例实现方式

 

 

 

 

 
 
  • 3
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
爬取知乎所有问题及对应的回答,集成selenium模拟登录、英文验证码及倒立文字验证码识别、随机生成User-Agent、IP代理、处理302重定向问题等等 爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
可同时获取腾讯、网易、搜狐、凤凰网、新浪、东方财富、人民网等各大平台新闻资讯 爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值