requests.request(method,url,**kwargs)
1、params:字典或字节序列,作为参数增加到URL中
r = requests.request('GET','http://www.baidu.com/',params={})
2、data: 字典、字节序列或文件对象,向服务器提交资源时使用
r = requests.request('POST','http://www.baidu.com/',data={})
3、json: 作为内容向服务器提交
r = requests.request('POST','http://www.baidu.com/',json={})
4、headers:字典,HTTP定制头
hd = {'user-agent':'Chrome/10'}
r = requests.request('POST','http://www.baidu.com/',header=hd)
5、cookies: 从HTTP协议中解析cookies,字典或者CookieJar, Request中的cookie
6、auth: 元组,支持HTTP认证功能
7、files:字典类型,传输文件
fs = {'file': open('data.xls','rb')}
r = requests.request('POST','http://www.baidu.com/'.files=fs)
8、timeout: 设定特定的超时时间,以秒为单位
r = requests.request('GET','http://www.baidu.com/',timeout=10)
9、proxies: 字典类型,设定访问代理服务器,可以增加登录认证,防止对爬虫的逆追踪
pxs = {'http':'http://user:pass@10.10.1:1234'
'https':'https://10.10.1:4321'}
r = requests.request('GET','http://www.baidu.com/',proxies = pxs)
10、allow_redirects: True/False, 默认为True, 重定向开关
11、stream: True/False, 默认为True, 获取内容立即下载开关
12、verify:True/False,默认为True,认证SSL证书的开关
13、cert:本地SSL证书路径
注:本文由北京理工大学嵩天老师的《Python网络爬虫与信息提取》MOOC中学习整理而得