AsyncProxyPool代理池中间件

import requests
from scrapy.downloadermiddlewares.retry import RetryMiddleware
from scrapy.utils.response import response_status_message
import base64
import logging

logger = logging.getLogger(__name__)

'''
AsyncProxyPool代理池中间件
从代理池随机获取一个代理,若代理失效重新请求并删除此代理
'''

class AsyncProxyPoolRetryMiddleware(RetryMiddleware):
    def delete_proxy(self, proxy):
        if proxy:
            # 删除代理,对代理地址进行编码
            key = base64.urlsafe_b64encode(proxy.encode()).decode()
            url = "http://192.168.113.128:3289/delete/" + key
            resp = requests.get(url).json()
            logger.debug("删除代理:"+proxy+":"+str(resp))

    def process_response(self, request, response, spider):
        if request.meta.get('dont_retry', False):
            return response
        # 返回码不为200就重试
        if str(response.status) != "200":
            reason = response_status_message(response.status)
            # 删除该代理
            logger.debug("代理失效:"+str(reason))
            self.delete_proxy(request.meta.get('proxy', False))

            return self._retry(request, reason, spider) or response
        return response

    def process_exception(self, request, exception, spider):
        if isinstance(exception, self.EXCEPTIONS_TO_RETRY) \
                and not request.meta.get('dont_retry', False):
            # 删除该代理
            logger.debug("代理异常:" + str(exception))
            self.delete_proxy(request.meta.get('proxy', False))
            return self._retry(request, exception, spider)


class AsyncProxyPoolMiddleware(object):
    def process_request(self, request, spider):
        # 获取代理
        url = requests.get("http://192.168.113.128:3289/pop").json()
        proxy = list(url.values())[0]
        logger.debug("获取到的代理:"+proxy)
        # 设置代理
        request.meta['proxy'] = proxy

async_proxy_pool/webapi_flask.py中增加

@app.route("/delete/<string:proxy>")
def delete_proxy(proxy):
    return jsonify({"delete": redis_conn.delete_proxies(proxy)})

async_proxy_pool/database.py中增加

    def delete_proxies(self, proxy):
        key = str(proxy + '=' * (4 - len(proxy) % 4))
        de = base64.urlsafe_b64decode(key)
        proxy = de.decode()
        print(proxy)
        return self.redis.zrem(REDIS_KEY, proxy)
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Scrapy是一个强大的Python爬虫框架,可以用于抓取和提取网页数据。如果你想在Scrapy中使用代理IP,可以按照以下步骤进行: 1. 首先,你需要准备一个代理IP。这可以是一个存储代理IP的数据库或者一个包含代理IP列表的文件。 2. 在Scrapy的项目中,你可以创建一个中间件来处理代理IP。中间件可以在请求发送之前或之后修改请求。你可以创建一个自定义的中间件类,在其中实现代理IP的设置。 例如,你可以创建一个名为ProxyMiddleware的中间件类,并在其中实现process_request方法,从代理IP中随机选择一个代理IP,并将其设置为请求的代理。 ```python class ProxyMiddleware(object): def process_request(self, request, spider): # 从代理IP中随机选择一个代理IP proxy = get_proxy_ip() request.meta['proxy'] = proxy ``` 3. 将中间件添加到Scrapy的配置中。在项目的settings.py文件中,找到DOWNLOADER_MIDDLEWARES配置项,并将你的中间件类添加到其中。 ```python DOWNLOADER_MIDDLEWARES = { 'your_project_name.middlewares.ProxyMiddleware': 543, # 其他中间件... } ``` 4. 现在,当Scrapy发送请求时,中间件会在请求前设置代理IP。这样,你就可以使用代理IP来爬取网页数据了。 请注意,使用代理IP需要注意合法性和稳定性。你需要确保代理IP有效,并及时更新代理IP,以免影响爬虫的正常运行。另外,使用代理IP时也需要遵守网站的相关规定,避免对目标网站造成不必要的干扰。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值