问题
如果服务器端拒绝非浏览器访问,如何处理?
表现形式
问题原因
出现这样的情况原因就是,服务器知道我们这是一个爬虫直接给禁止了,我们可以在网站上输入http://httpbin.org/get
得到如下结果
这时我们在看我们的爬虫
from urllib import request
url = 'http://httpbin.org/get'
req = request.urlopen(url)
obj = req.read().decode('utf-8')
print(obj)
这里其他的我们不关注其他的,只关注User-Agent,一个是浏览器,一个是python,所以我们只需要将headers里的User-Agent改变一下就好了
解决方法(两种)
1,我们在浏览器上将User-Agent的内容复制下来,如下
from urllib import request
url = 'https://movie.douban.com/top250'
myhead = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.82 Safari/537.36",
}
hd = request.Request(url,headers=myhead)
req = request.urlopen(hd)
req.read().decode('utf-8')
2,也可以fake_usergent,命令行下输入pip install fake_useragent,若是不能运行出现报错,可以输入pip install -U fake-useragent
from urllib import request
from fake_useragent import UserAgent
url = 'https://movie.douban.com/top250'
genua = UserAgent()
head = {'User-Agent':'genua.random'}
hd = request.Request(url,headers=head)
req = request.urlopen(hd)
req.read().decode('utf-8')