Requests:请求[计];
Requests库的7个主要方法
方法 | 说明 |
---|---|
requests.request() | 构造一个请求,支持一下各方法的基础方法 |
requests.get() | 获取HTML网页的主要方法,对应于HTTP的GET |
requests.head() | 获取HTML网页头信息的方法,对应于HTTP的HEAD |
requests.post() | 向HTML网页提交POST请求的方法,对应于HTTP的POST |
requests.put() | 向HTML网页提交PUT请求的方法,对应于HTTP的PUT |
requests.patch() | 向HTML网页提交局部修改请求,对应于HTTP的PATCH |
requests.delete() | 向HTML页面提交删除请求,对应于HTTP的DELETE |
requests.request(method,url,**kwargs)
method:请求方法,对应get/put/post等7种
r=requests.request('GET',url,**kwargs)
r=requests.request('HEAD',url,**kwargs)
r=requests.request('POST',url,**kwargs)
r=requests.request('PUT',url,**kwargs)
r=requests.request('PATCH',url,**kwargs)
r=requests.request('delete',url,**kwargs)
r=requests.request('OPTIONS',url,**kwargs)
url:拟获取页面的url链接
**kwargs:13个控制访问的参数
'''params:字典或字节序列,作为参数增加到url中'''
kv = { 'k1':'v1','k2':'v2'}
r = requests.request('GET','http://www.baidu.com',params = kv)
print(r.url)
#'http://www.baidu.com/?k1=v1&k2=v2'
'''data:字典,字节序列或文件对象。作为Request的内容'''
kv={'key1':'value1','key2':'value2'}
r=requests.request('POST','http://python123.io/ws',data=kv)
print(r.url)
print(r.text)
body='主体内容'.encode('utf-8')
r=requests.request('POST','http://python123.io/ws',data=body)
print(r.url)
print(r.text)
'''json:JSON格式的数据,作为Request的内容'''
kv = { 'k1':'v1' }
r = requests.request('POST','http://python123.io/ws',json = kv)
'''headers:字典,HTTP定制头'''
hd = {'user-agent':'Chrome/10'}
r = requests.request('POST','http://python123.io/ws',headers=hd)
'''cookies:字典或CookieJar,Request中的cookie'''
'''auth:元组,支持HTTP认证功能'''
'''files:字典类型,传输文件'''
fs = {'file': open('data.xls','rb')}
r = requests.request('POST','http://python123.io/ws',files=fs)
'''timeout:设定超时时间,秒为单位'''
r = requests.request('GET','http://www.baidu.com',timeout=10)
'''proxies:字典类型,设置访问代理服务器,可以增加登陆认证'''
pxs = { 'http':'http://user:pass@10.10.10.1:1234',
'https':'https://10.10.10.1:4321'}
r = requests.request('GET','http://www.baidu.com',proxies=pxs)
'''allow_redirects: Trus/False,默认为True,重定向开关'''
'''stream:True/False,默认为True,获取内容立即下载开关'''
'''verify:True/False,默认为True,认证SSL证书的开关'''
'''cert:本地SSL证书路径'''
requests.get(url,params=None,**kwargs)
返回Response对象:Response对象包含爬虫返回的内容
url:拟获取页面的url链接
params:url中的额外参数,字典或是字节流格式,可选
**kwargs:12个控制访问的参数
Response对象
属性 | 说明 |
---|---|
r.status_code | HTTP请求的返回状态,200表示连接成功,404表示失败 |
r.text | HTTP响应内容的字符串形式,即,url对应的页面内容 |
r.encoding | 从HTTP header中猜测的响应内容编码方式 |
r.apparent_encoding | 从内容中分析出的响应内容编码方式(备选编码方式) |
r.content | HTTP响应内容的二进制形式 |
r.headers | http响应内容的头部内容 |
方法 | 说明 |
---|---|
r.raise_for_status() | 如果不是200,产生异常requests.HTTPError |
Requests库的异常
异常 | 说明 |
---|---|
requests.ConnectionError | 网络连接错误异常,如DNS查询失败,拒绝连接等 |
requests.HTTPError | HTTP错误 |
requests.URLRequired | URL缺失异常 |
requests.TooManyRedirects | 超过最大重定向次数,产生重定向异常 |
requests.ConnectTimeout | 连接远程服务器超时异常 |
requests.Timeout | 请求URL超时,产生超时异常 |
HTTP协议
HTTP,Hypertext Transfer Protocol,超文本传输协议。
HTTP是一个基于“请求于响应”模式的,无状态的应用层协议。
HTTP协议采用URL作为定位网络资源的标识
URL格式 http://host[:port][path]
host:合法的Internet主机域名或IP地址
port:端口号,缺省端口为80
path:请求资源的路径
HTTP协议对资源的操作
方法 | 说明 |
---|---|
GET | 请求获取URL位置的资源 |
HEAD | 请求获取URL位置资源的响应消息报告,即获得该资源的头部信息 |
POST | 请求向URL位置的资源后附加新的数据 |
PUT | 请求向URL位置存储一个资源,覆盖原URL位置的资源 |
PATCH | 请求局部更新URL位置的资源,即改变该处资源的部分内容 |
DELETE | 请求删除URL位置存储的资源 |
Robots协议
建议遵守
#注释 *代表所有 /代表根目录
User-agent:*
Disallow:/