接口自动化,离不开requests模块,所以在时使用之前需要先行安装,在cmd下使用命令pip install requests即可。
下面通过一个实例引入get方法的使用。
#coding:utf-8
import requests
r = requests.get("https://blog.csdn.net/rhx_qiuzhi/")
print r.status_code
print r.text
导入requests模块后,使用get方法就能直接访问url地址,r是response消息,是请求后返回的值,调用response里的status_code方法查看状态码,如果状态码是200,则表明这个借口访问的服务器地址是正确的,但是不能说明功能是ok的,一般需要对相应的内容进行查看,r.text是返回的文本信息。
运行之后直接输出到窗口中,绝对很不方便,将其保存下来进行查看,使用with open 命令
with open("code3.html", "wb") as code:
code.write(r.content)
或者也可以保存成“code3.zip”输出到本工程下,如图
上述是直接请求到rhx_qiuzhi的伯博客里的,现在如果进入到csdn博客中,通过参数的形式进行请求。
- 发送一个带有参数的请求,在csdn中搜索rhx_qiuzhi,url的地址为 https://so.csdn.net/so/search/s.do?q=rhx_qiuzhi
- 请求删除q=rhx_qiuzhi,可以以字典的形式进行参数传递:{“q":"rhx_qiuzhi" }
- 对于有多个参数的形式为:{“key1”:"value1","key2":"value2","key3":"value3"}
#coding:utf-8
import requests
params = {"q":"rhx_qiuzhi"}
r = requests.get(" https://so.csdn.net/so/search/s.do?",params=params)
print r.status_code
print r.text
with open("code3.html", "wb") as code:
code.write(r.content)
再次获取百度首页的url的信息
#coding:utf-8
import requests
r = requests.get(" https://www.baidu.com")
print r.status_code
print r.text
with open("code3.html", "wb") as code:
code.write(r.content)
出现了乱码的现象,因为百度首页相应的内容是gzip压缩了的,而不是txt的形式,那如何解决呢?
可以直接使用r.content方法,contetn会自动解码gzip和deflate压缩的格式
#coding:utf-8
import requests
r = requests.get(" https://www.baidu.com")
print "r.status_code",r.status_code
print "r.encoding:",r.encoding
print "r.headers:",r.headers
print "r.cookies:",r.cookies
print "r.content:",r.content
with open("code3.html", "wb") as code:
code.write(r.content)
response的返回内容还有其它更多信息
-- r.status_code #响应状态码
-- r.content #字节方式的响应体,会自动为你解码 gzip 和 deflate 压缩
-- r.headers #以字典对象存储服务器响应头,但是这个字典比较特殊,字典键不区分大小写,若键不存在则返回None
-- r.json() #Requests中内置的JSON解码器
-- r.url # 获取url
-- r.encoding # 编码格式
-- r.cookies # 获取cookie
-- r.raw #返回原始响应体
-- r.text #字符串方式的响应体,会自动根据响应头部的字符编码进行解码
-- r.raise_for_status() #失败请求(非200响应)抛出异常