Scrapy 解决URL被重定向无法抓取到数据问题301. 302

1.什么是状态码301,302

301 Moved Permanently(永久重定向) 被请求的资源已永久移动到新位置,并且将来任何对此资源的引用都应该使用本响应返回的若干个URI之一。

解决(一)

1.在Request中将scrapy的dont_filter=True,因为scrapy是默认过滤掉重复的请求URL,添加上参数之后即使被重定向了也能请求到正常的数据了

# example
Request(url, callback=self.next_parse, dont_filter=True)

解决(二)

在scrapy框架中的 settings.py文件里添加

HTTPERROR_ALLOWED_CODES = [301]

解决(三)

使用requests模块遇到301和302问题时

def website():
    'url'
    headers = {'Accept':     'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
           'Accept-Encoding': 'gzip, deflate, sdch, br',
           'Accept-Language': 'zh-CN,zh;q=0.8',
           'Connection': 'keep-alive',
           'Host': 'pan.baidu.com',
           'Upgrade-Insecure-Requests': '1',
           'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}

    url = 'https://www.baidu.com/'
    html = requests.get(url, headers=headers, allow_redirects=False)
    return html.headers['Location']

allow_redirects=False的意义为拒绝默认的301/302重定向从而可以通过html.headers[‘Location’]拿到重定向的URL。



作者:HAO延WEI
链接:https://www.jianshu.com/p/b9c832977c00
來源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。

Scrapy发出请求时,如果遇到重定向Scrapy会自动处理重定向。默认情况下,Scrapy会遵循HTTP重定向,直到达到最终目标URL或达到最大重定向次数。 如果您想在重定向时执行特定的操作,例如跟踪重定向链或修改请求头,您可以使用Scrapy的`meta`参数。以下是一个示例,演示如何在遇到重定向时跟踪重定向链: ```python import scrapy class MySpider(scrapy.Spider): name = 'myspider' start_urls = ['http://www.example.com'] def start_requests(self): for url in self.start_urls: yield scrapy.Request(url, callback=self.parse, meta={'redirect_urls': []}) def parse(self, response): # 从meta参数中获取重定向URL列表 redirect_urls = response.meta.get('redirect_urls', []) # 将当前URL添加到重定向URL列表中 redirect_urls.append(response.url) # 如果存在重定向URL,则跟踪重定向链 if 'Location' in response.headers: location = response.headers['Location'].decode('utf-8') redirect_urls.append(location) yield scrapy.Request(location, callback=self.parse, meta={'redirect_urls': redirect_urls}) else: # 如果没有重定向,则处理响应 yield { 'url': response.url, 'redirect_urls': redirect_urls } ``` 在这个例子中,我们定义了一个名为`myspider`的Spider,并将`start_urls`设置为`http://www.example.com`。我们使用`start_requests`函数创建一个初始请求,并使用`meta`参数传递一个空的重定向URL列表。 在`parse`函数中,我们首先从`meta`参数中获取重定向URL列表。然后,我们将当前URL添加到重定向URL列表中,并检查响应头中是否存在`Location`字段。如果存在,则表示响应是一个重定向,我们将重定向URL添加到重定向URL列表中,并创建一个新的请求,以跟踪重定向链。如果没有重定向,则处理响应。 最后,我们可以通过以下方式启动Spider: ```python from scrapy.crawler import CrawlerProcess process = CrawlerProcess() process.crawl(MySpider) process.start() ``` 在Scrapy日志中,我们可以看到跟踪的重定向链。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值