python requests库详解_python爬虫之路(一)-----requests库详解

requests库

requests库是python实现的最简单易用的http库。

requests库的功能详解。

我们可以自然而然地想到这些方法其实就是http协议对资源的操作。

调用requests的get方法就是构造一个向服务器请求资源的requests对象,这个对象会返回一个包含服务器资源的response对象。

下面我们主要来讲以下requests库的request方法

request()中的参数

------------url:拟获取页面的url链接

------------**kwargs:控制访问的参数,均为可选项

params : 字典形式,将params以字典的方式作为传入url中。

headers :字典形式,http定制头,我们可以这个来把爬虫伪装成浏览器。

data:字典形式、字符串或文件对象,用于向服务器提供或提交数据,作为request的内容

importrequests;

data={'id':"me","age":10}r=requests.request('post',"http://www.baidu.com",data=data);

data="人生苦短,及时行乐";r=requests.request('post',"http://www.baidu.com",data=data);

json   :json格式的数据,作为request的内容。

timeout  :设置超时时间,以秒为单位,在规定的时间没有返回,抛出timeout异常。

不常用参数:

allow_redicts:  True/False  默认为True,重定向开关

stream:True/False  默认为True  获取内容立即下载

verify:True/False   默认为True   认证数字证书开关

cert  :本地SSL路径

高级参数:

1.获取cookie

cookies: 我们可以使用cookies参数传入我们设计好的cookies到服务器,此外,我们也可以通过cookies参数,获取响应cookie的一些值。

//获取cookie

import requests

url = 'http://httpbin.org/cookies';

response = requests.get(url) ;

print(response.cookies);

//向服务器传入cookie

import requests

url = 'http://httpbin.org/cookies'

cookies = { 'domain':'httpbin.org', }

response = requests.get(url, cookies=cookies) ;

print(response.text);

2.上传文件

files:字典类型,文件传输

importrequests

url= "http://www.baidu.com";

fs={"files":open("F://imgs//timg.jpg","rb")};

r=requests.request("post",url,files=fs);

3.设置代理

所谓代理,其实就是把一件事交给别人去做。当我们使用代理去访问服务器时,本机会将请求先发到代理,然后在由代理发到服务器。当接收服务器的响应时,先是代理收到响应,再转发到本机。

importrequests

proxies={"http":"http://127.0.0.1:9743","https":"https://127.0.0.1:9743",

}

r=requests.request("get","http://www.baidu.com",proxies=proxies);print(r.status_code);

再看一遍Requests库的7个主要方法

其实,get()/post()/head()/put()/patch()/delete()方法,都可以用request方法来取代,其参数也大体相同。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值