scrapy晋级---------处理返回状态码异常,ip超时

简单粗暴些,利用scrapy 框架原理自定义middleware 处理状态码异常,ip 超时的异常,重现发送请求,

这里需要重写scrapy 内置的中间件 RetryMiddleware,

middlewares.py


class Process_Proxies(RetryMiddleware):
    logger = logging.getLogger(__name__)

    def dele_proxy(self,proxy,res=None):
        print('删除代理')
        if proxy:
            gp = GetProxy()
            gp.removeproxy(proxy)
    def process_response(self, request, response, spider):
        # if request.meta.get('dont_retry',False):
        #     return response
        # if response.status in self.retry_http_codes:
        if response.status != 200:
            print('状态码异常')
            reason = response_status_message(response.status)
            self.dele_proxy(request.meta['proxy'],False)
            time.sleep(random.randint(3,5))
            return self._retry(request,reason,spider) or response
        return response

    def process_exception(self, request, exception, spider):
        if isinstance(exception,self.EXCEPTIONS_TO_RETRY) and not request.meta.get('dont_retry',False):
            self.dele_proxy(request.meta.get('proxy',False))
            time.sleep(random.randint(3,5))
            self.logger.warning('连接异常,进行重试......')

            return self._retry(request,exception,spider)
        

setting.py

DOWNLOADER_MIDDLEWARES = {
   'BaiduSpider.middlewares.UserAgentMiddleware': 100,
   'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None,
   "scrapy.contrib.downloadermiddleware.redirect.RedirectMiddleware": None,
   'BaiduSpider.middlewares.Process_Proxies': 120,
   'scrapy.downloadermiddlewares.downloadtimeout.DownloadTimeoutMiddleware':500
}


RETRY_TIMES = 10
RETRY_ENABLED: True

 

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值