2021-11-09网络爬虫

初学网络爬虫

requests库的应用

导入requests库

import requests

requests库下面的方法

1.requests.get()方法

r = requests.get(url,params=请求头,headers = header)#常用的方法

(来自官方文档)

示例

import requests
url = 'www.baidu.com'
pa = {'网络' : '爬虫'}
header = {'user-agent' : 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3878.400 QQBrowser/10.8.4518.400'}
#pa可根据自己的需求进行更改,可以不加入pa,直接跳转到自己需要的网页
#header可更加自己的需求进行更改,可以不加入header,当被反爬时,可添加。也可以添加报文中的其他数值
#每一个浏览器的user-agent都是不同的,不同的浏览器能爬取的数据也不同,请注意选择
r = requests.get(url , params = pa , headers = herader)

 2.查看返回值

r.status_code()
print(r.status_code)
#进行输出,查看HTTP的返回值,200表示成功,404或其他返回值则表示失败
#当返回值为200时可以进行接下来的操作

 3.获取字符串

print(r.text)

 4.从HTTP的header中猜测响应内容编码方式

r.encoding

5.HTTP响应内容的二进制

r.content()

目前只掌握了get方法

后续其他方法暂未学习

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值