requests库操作整合

网络爬虫-requests库

基础操作

import requests
url = 'http://www.baidu.com'
a = requests.get(a)    #请求url地址
a.text

结果:
在这里插入图片描述
为什么会出现乱码?
根据requests.encoding可以查看到requests的解码方式是’ISO-8859-1’,而网页的是’utf-8’

解决乱码的问题
  • requests.content.decode()
  • requests.content.decode(“gbk”)
  • requests.text()
params方法传参
import requests
url = 'https://www.baidu.com/s?'
#url = 'https://www.baidu.com/s'
headers ={"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.81 Safari/537.36"} #html查看header
p = {"wd":"西北大学"}
r = requests.get(url,headers=headers,params=p)
print(r.url)

得到的url地址:https://www.baidu.com/s?wd=%E8%A5%BF%E5%8C%97%E5%A4%A7%E5%AD%A6→url解码之后:https://www.baidu.com/s?wd=西北大学
requests.session()会话保持

为什么要进行会话保持?
就是比如你使用session成功的登录了某个网站,则在再次使用该session对象求求该网站的其他网页都会默认使用该session之前使用的cookie等参数

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值