爬虫教程系列三
在学习了前面的案例以后,我们写起普通的爬虫已经是得心应手了,可是我们慢慢发现,在爬虫运行一段时间后,就会弹出验证码页面,这是为什么呢,原因是短时间内多次请求被服务器识别出来是爬虫了,所以我们需要使用代理来解决服务器对我们的IP识别
题目网站
代码
import requests
proxy = '127.0.0.1:10080'
proxies = {
'http': 'http://' + proxy,
'https': 'https://' + proxy,
}
try:
response = requests.get('http://httpbin.org/get', proxies=proxies)
print(response.text)
except requests.exceptions.ConnectionError as e:
print('Error', e.args)
返回结果
相关文章
我的个人博客网站是:www.coderyyn.cn
上面会不定期分享有关爬虫、算法、环境搭建以及有趣的帖子
欢迎大家一起交流学习
转载请注明