Python爬虫之三:爬虫 requests 库的使用

一、requests 的安装

1、通过dos窗口,输入:pip install requests 进行安装
2、通过pycharm 的 setting 中搜索: resquests 进行安装

requests 库的中文文档:https://requests.readthedocs.io/zh_CN/latest/

二、发送 get 请求

在百度搜索中国,爬取搜索后的网页:

import requests

url = 'https://www.baidu.com/s'

headers = {
   
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36'
}

kw = {
   'wd':'中国'}
response = requests.get(url, headers=headers, params=kw)
print(response.url)
print(response.text)
print(response.content)

解释:
1、params : 接收一个字典类型的参数,直接添加到请求中去,不需要转码
2、response.text :返回字符串类型的网页代码
3、response.content : 返回字节流类型的网页代码
4、response.url : 返回请求的 url

response.text 和 response.content 区别:

response.text : requests 库根据猜测来将 response.content 通过猜测的解码格式解码成字符串返回,因此有时候requests库会猜测错误的解码格式进行解码,那样就会出现乱码。

response.content :直接从网络上抓取的数据,没有进行任何编码和解码,是一个byte类型的数据。

三、发送 post 请求

爬取网址:http://42824.com/member/index.php?mod=login

1、查询登录后的网址

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值