scrapy——解决302重定向

 

在爬虫多次请求时,有些网站会出现反爬虫措施:将请求链接重定向到一个提示404的链接或者验证码链接等阻止爬虫的进行,如下为解决方案:

def start_requests(self):
        for i in self.start_urls:
            yield Request(i, meta={
                'dont_redirect': True,
                'handle_httpstatus_list': [302]
            }, callback=self.parse) 

# 'dont_redirect': True是禁止重定向
# Request.meta 中的 handle_httpstatus_list 键可以用来指定每个request所允许的response code。

 

此外:

根据 HTTP标准 ,返回值为200-300之间的值为成功的resonse。

如果想处理在这个范围之外的response,可以通过 spider的 handle_httpstatus_list 属性或HTTPERROR_ALLOWED_CODES 设置来指定spider能处理的response返回值。

例如,如果想要处理返回值为404的response可以这么做:

class MySpider(CrawlSpider):
  handle_httpstatus_list = [404]

  

 

转载于:https://www.cnblogs.com/lanston1/p/11120444.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值