破解反爬虫难题 - Requests对象的正确打开方式
简介
在网络爬虫的世界里,绕过网站的反爬虫机制一直是一个巨大挑战。很多网站都有一些反爬虫策略,比如检测User-Agent、通过爬虫特征识别爬虫请求、限制并发数量或频率等。要想成功采集数据,正确使用Requests对象显得尤为重要。本文就来分享一些使用技巧。
1. 设置User-Agent
许多网站会检测请求的User-Agent字段,发现不是主流浏览器的UA就会视为爬虫请求,所以我们要设置一个模拟真实浏览器的UA:
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
resp = requests.get(url, headers=headers)
2. 避免爬虫特征
有些网站通过分析请求的报头字段或其他特征识别爬虫。我们需要尽量模拟正常的浏览器行为,隐藏爬虫特征。可以:
- 禁用gzip、Referer为空
- 设置合理的浏览器缓存
- 添加常见的请求头
session = requests.Session()
headers = {'User-Agent': 'xxx', 'Referer': 'https://www.example.com'}
resp = session.get(url, headers=headers)
3. 伪装成移动端
很多网站针对移动端和PC端返回的HTML内容可能不同。如果你想爬取移动版网页内容,需要将Requests模拟为移动浏览器发出请求:
mobile_headers = {'User-Agent': 'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.132 Mobile Safari/537.36'}
resp = requests.get(url, headers=mobile_headers)
4. 控制请求频率
很多网站对于单个IP的访问频率有限制,超过一定阈值就会被禁止访问。因此我们需要控制爬虫的请求频率,可以通过:
- 使用随机时延
- 设置最大并发数
- 使用IP代理池等方式
import time,random
def crawl(url):
# ...
# 随机3-5秒时延
delay = random.randint(3,5)
time.sleep(delay)
5. 处理Cookies
某些网站需要携带Cookies才能正常访问,我们可以手动设置、自动获取或使用Requests的CookieJar对象管理:
# 手动设置
cookies = {'k1': 'v1', 'k2': 'v2'}
resp = requests.get(url, cookies=cookies)
# 自动获取cookies
session = requests.Session()
resp = session.get(url)
# 使用CookieJar
jar = requests.cookies.RequestsCookieJar()
jar.set('k1', 'v1')
resp = requests.get(url, cookies=jar)
6. 设置代理
有些高匿代理对抗反爬虫也很有帮助,可以通过proxies参数设置代理:
proxies = {
'http': 'http://12.34.56.79:9527',
'https': 'https://12.34.56.79:9528'
}
resp = requests.get(url, proxies=proxies)
除了以上这些技术,一些更高级的反反爬虫策略还可以使用Selenium或Pyppeteer无头浏览器模拟人为操作。总之,只要合理运用Headers/Cookies/时延/代理等手段,充分隐藏爬虫特征,我们就能顺利拿下大部分网站数据。掌握Requests对象的正确使用方法是爬虫从业者的必修课。