Python爬虫(2):Requests的基本用法

Python爬虫(2):Requests的基本用法

虽然Python有内置的urllib库,可以实现网络的请求,但是我并不推荐。因为urllib在很多时候使用起来不方便,比如加一个代理,处理Cookie时API都很繁琐,再比如发送一个POST请求也很麻烦。

Requests就相当于urllib的升级版本,简化了urllib的使用方法。有了Requests,我们可以用几句代码实现代理的设置,Cookie的设置,非常方便。下面我就给大家整理了Requests库的使用方法和细节。详细可以参考Requests官方文档

什么是Requests?

RequestsPython语言编写,基于urllib3,采用Apache2 Licensed开源协议的HTTP库。

它比urllib更加方便,可以节约我们大量的工作,完全满足HTTP测试需求。是Python实现的简单易用的HTTP库。

安装也很简单:pip install requests

Requests的语法操作

1.实例引入

import requests
 
response = requests.get( 'http://www.baidu.com/' )
print (response.status_code)
print ( type (response.text))
print (response.text)
print (response.cookies)

运行结果:

200
< class 'str' >
 
# ...HTML网页源码..
<RequestsCookieJar[]>

可以看到,我们非常方便的就获取到了Cookies.

2.各种请求方式

import requests
 
requests.get( 'http://httpbin.org/get' ) # 发送get请求
requests.post( 'http://httpbin.org/post' ) # 发送post请求,只要调用post方法,传入一个url参数
requests.put( 'http://httpbin.org/put' )
requests.delete( 'http://httpbin.org/delete' )

官方文档里提供的这个网址足够我们测试这些请求方式了。

请求

1.基本GET请求

import requests
 
resp = requests.get( 'http://httpbin.org/get' )
print (resp.text)

这个我们前面有使用过,也是最常用的方法。运行成功就可以看到网页的源码了。

2.带参数的GET请求

import requests
 
data = {
     'name' : 'jack' ,
     'age' : 20
}
resp = requests.get( 'http://httpbin.org/get' , params = data)
print (resp.text)

传入参数只需要我们把数据生成一个字典,然后调用params参数,赋值给他就可以,是不是很方便。

3.解析json

import requests
import json
 
resp = requests.get( 'http://httpbin.org/get' )
print (resp.text)
print (resp.json())
print (json.loads(resp.text))
print ( type (resp.json()))

运行结果:

可以看出Requestsjaon解析和jsonloads方法解析出来的结果是完全一样的。所以Requests可以很方便的解析json数据。

4.获取二进制数据

import requests
 
print (resp.content)
print (resp.text)

运行成功我们可以看到content方法获取的图片页面源码是二进制数据,而text获取的则是字符串代码。显然获取图片这种二进制数据需要使用content方法。

with open ( 'logo.gif' , 'wb' ) as f:
     f.write(resp.content)

这样我们就保存了图片,我们可以在文件夹下看到这张图片。

5.添加headers

import requests
 
headers = { 'User-Agent' : 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36' }
resp = requests.get( 'http://www.baidu.com' , headers = headers)
print (resp.text)

有些网页如果我们直接去请求的话,他会查看请求的对象是不是浏览器,如果没有浏览器信息就会禁止我们爬虫的访问,这个时候我们就要给爬虫加一个headers,加一个浏览器的user-agent信息。这样我们就可以正常访问了。如果有的伙伴不知道怎么得到User-Agent,可以打开浏览器的审查元素,找到network,随便点击一个链接就可以看到User-Agent的信息了。

6.基本POST请求

import requests
 
data = {
     'name' : 'jack' ,
     'age' : 20
}
resp = requests.post( 'http://httpbin.org/post' , data = data)
print (resp.text)

一个POST必然是要有一个Form Data的表单提交的,我们只要把信息传给data参数就可以了。一个POST请求只需要调用post方法,是不是特别方便呢。如果不觉得方便的话,可以去参考urllib的使用方法。

响应

1.response属性

import requests
 
response = requests.get( 'http://www.baidu.com/' )
print ( type (response.status_code)) # 状态码
print ( type (response.text)) # 网页源码
print ( type (response.headers)) # 头部信息
print ( type (response.cookies)) # Cookie
print ( type (response.url)) # 请求的url
print ( type (response.history)) # 访问的历史记录

获取这些信息只需要简单的调用就可以实现了。

2.状态码判断

>>> import requests
 
>>>response = requests.get( 'http://www.baidu.com/' )
>>>exit() if not resp.status_code = = 200 else print ( 'Sucessful' )
Sucessful

如果发送了一个错误请求(一个4XX客户端错误,或者5XX服务器错误响应),我们可以通过 Response.raise_for_status() 来抛出异常:

>>>bad_r = requests.get( 'http://httpbin.org/status/404' )
>>>bad_r.status_code
404
>>>bad_r.raise_for_status()
Traceback (most recent call last):
   File "requests/models.py" , line 832 , in raise_for_status
     raise http_error
requests.exceptions.HTTPError: 404 Client Error

好了,这篇文章我们了解了Requests库的基本语法操作,相信大家对Requests库的请求和响应已经很清楚了,大家完全可以抓取一些网页了。

纸上得来终觉浅,绝知此事要躬行,大家加油!

系列文章

原文地址:https://www.yukunweb.com/2017/5/python-spider-Requests-basic/

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值