网络爬虫-requests库
基础操作
import requests
url = 'http://www.baidu.com'
a = requests.get(a) #请求url地址
a.text
结果:
为什么会出现乱码?
根据requests.encoding可以查看到requests的解码方式是’ISO-8859-1’,而网页的是’utf-8’
解决乱码的问题
- requests.content.decode()
- requests.content.decode(“gbk”)
- requests.text()
params方法传参
import requests
url = 'https://www.baidu.com/s?'
#url = 'https://www.baidu.com/s'
headers ={"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.81 Safari/537.36"} #html查看header
p = {"wd":"西北大学"}
r = requests.get(url,headers=headers,params=p)
print(r.url)
得到的url地址:https://www.baidu.com/s?wd=%E8%A5%BF%E5%8C%97%E5%A4%A7%E5%AD%A6→url解码之后:https://www.baidu.com/s?wd=西北大学
requests.session()会话保持
为什么要进行会话保持?
就是比如你使用session成功的登录了某个网站,则在再次使用该session对象求求该网站的其他网页都会默认使用该session之前使用的cookie等参数