当爬虫遇上重定向

本文介绍了爬虫在遇到重定向问题时如何处理,通过实例分析了两种重定向方式,并提出了两种解决方法,包括设置`allow_redirects=False`以及使用正则表达式匹配重定向URL。建议在小规模爬虫中结合输出信息逐步调试,对于Scrapy框架可利用内建机制处理重定向。此外,推荐使用抓包工具理解HTTP交互以应对更复杂的重定向场景。
摘要由CSDN通过智能技术生成

爬虫之处理重定向问题

  1. 问题导论
    什么是重定向?
    在这里插入图片描述
    简单的说,重定向就是请求被转发到其他页面去了
    在生活中,当我们打开一个网址时,往往需要等待稍长一段时间,而最终 的网址也发生的 变化,这就是重定向。如果我们日常用浏览器浏览网站倒是没有什么问题,但是,当我们使用爬虫来爬取这样的页面时,真正的网址就会被忽略。那么,我们该如何处理这样的情况呢?

  2. 实例分析
    下面我们以两个个真实的网址,我们要提取它的title,提取的表达式很简单:

/html/head/title/text() #使用的xpath

主体代码

代码一:

import requests  #导入模块
#声明头部
header= {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:62.0) Gecko/20100101 Firefox/62.0"
}

html=requests.get("http://med.tongji.edu.cn",headers=header)

print(html.text)

相信大家都使用过这样的代码

让我们来看看结果

<script type="
### 处理Python爬虫requests库遇到HTTP重定向的问题 当使用 `requests` 库发送 HTTP 请求时,默认情况下,该库会自动跟随重定向。然而,在某些场景下可能希望手动控制这一行为,以便更好地处理特定情况。 #### 自动处理重定向 通常情况下,不需要特别配置即可让 `requests` 跟随重定向。只需正常发起请求: ```python import requests response = requests.get('http://example.com') print(response.url) # 输出最终URL ``` 如果需要获取整个重定向链的信息,可以通过访问响应对象的 `history` 属性来实现[^1]。 #### 手动禁用并处理重定向 有时为了调试或其他目的,可以选择关闭自动重定向功能,并自行决定如何应对服务器返回的状态码3xx系列指示的跳转操作: ```python import requests session = requests.Session() session.max_redirects = 0 # 设置最大允许的重定向次数为零,即不允许任何重定向发生 try: response = session.get('http://example.com', allow_redirects=False) except requests.exceptions.TooManyRedirects as e: print(f'Too many redirects occurred: {e}') else: if response.status_code >= 300 and response.status_code < 400: location_header = response.headers['Location'] new_url = f'http://{location_header}' if not location_header.startswith(('http:', 'https:')) else location_header print(f'Redirected to URL: {new_url}') ``` 上述代码展示了怎样阻止默认的行为以及根据实际情况采取相应措施的方法[^2]。 对于更加复杂的逻辑需求,比如模拟浏览器行为或遵循相对路径形式的目标地址等情形,则可以根据具体情况调整策略。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值